Pessoa engenheira de dados sênior
Descrição da Vaga
Descrição: Formação: * Superior completo, porém todos os cursos são bem\-vindos! Competências esperadas: * Vivência prática em migração de dados on\-premises para AWS (incluindo estratégias de extração, replicação, staging e transformação). * Domínio de Python, SQL e modelagem de dados. * Experiência com AWS Glue, Lambda, Step Functions, Redshift, S3, Athena, IAM, Lake Formation. * Conhecimento de infraestrutura como código (Terraform ou CloudFormation). * Experiência com CI/CD (GitLab, GitHub Actions, Jenkins). * Entendimento de pipelines ELT, mensageria (Kafka/Kinesis) e automação de processos de dados. * Noções de machine learning e IA aplicada a pipelines de dados. * Espanhol técnico (leitura e escrita). * Perfil empreendedor, com apetite por grandes desafios de negócios e vontade de trabalhar na dinâmica de uma consultoria. Diferenciais: * Certificações AWS (Data Engineer, Solutions Architect ou Machine Learning). * Experiência com ferramentas de replicação (AWS DMS, Snowball, Datastream, etc.). * Experiência em modernização de data warehouses legados (Oracle, SQL Server, Teradata). * Conhecimento em Data Mesh e Lakehouse architectures. * Experiência com monitoramento e FinOps de ambientes cloud. * Participação em projetos de IA generativa ou integração com modelos foundation (Bedrock, OpenAI). Soft Skills * Perfil analítico e orientado a resultados. * Boa comunicação técnica e capacidade de traduzir soluções complexas para o negócio. * Proatividade para resolver problemas e sugerir melhorias contínuas. * Colaboração com múltiplas áreas e liderança técnica de squads. * Curiosidade por novas tecnologias e boas práticas de engenharia cloud. Principais atividades: * Conduzir a migração de dados e workloads de ambientes on\-premises (bancos relacionais, data warehouses e aplicações legadas) para a plataforma AWS. * Planejar e executar a modernização da arquitetura de dados, definindo camadas de ingestão, tratamento e consumo. * Implementar pipelines escaláveis usando AWS Glue, Lambda, Step Functions, Kinesis, S3 e Redshift. * Desenhar e aplicar estratégias de particionamento, compressão, versionamento e lineage dos dados. * Criar modelos analíticos e operacionais aderentes à arquitetura alvo (Data Lake / Lakehouse). * Garantir segurança, compliance e governança de dados (IAM, Lake Formation, encryption, tagging). * Utilizar Terraform e CI/CD para automação e versionamento da infraestrutura. * Conectar pipelines de dados a modelos de Machine Learning / IA hospedados em SageMaker. * Participar de workshops de migração com times de infraestrutura, negócio e governança de TI. * Apoiar a criação de padrões e boas práticas para futuras migrações e novos domínios de dados. * Desenhar e implementar orquestração de dados em ferramentas como Airflow. 2511090202181618467
Vaga originalmente publicada em: indeed
Receba vagas como esta no seu email
Crie um alerta gratuito e seja o primeiro a saber de novas oportunidades
Alertas que entendem o que você quer
Não receba qualquer vaga. Receba apenas as que combinam exatamente com o que você busca.
Filtro:
Você recebe tudo isso:
Filtro:
Você recebe apenas:
Zero ruído. Só vagas relevantes para você.
Outros exemplos de filtros precisos:
Filtros Combinados
Combine linguagem + framework + nível + localização. Seja tão específico quanto quiser.
Email Diário
Receba um resumo diário apenas com vagas que passam nos seus filtros. Sem spam.
Kanban Visual
Organize suas candidaturas em um quadro Kanban. Acompanhe cada processo seletivo.
Planos simples, sem surpresas
Comece grátis e faça upgrade quando quiser
Premium
- Tudo do plano gratuito
- Vagas salvas ilimitadas
- Quadros Kanban ilimitados
- Alertas de vagas por email
- Suporte prioritário
Pronto para encontrar sua vaga ideal?
Junte-se a milhares de desenvolvedores que já usam o Job For Dev
Encontre as melhores oportunidades para desenvolvedores no Job For Dev