Pessoa engenheira de dados sênior
Descrição da Vaga
Descrição: Formação: * Superior completo, porém todos os cursos são bem\-vindos! Competências esperadas: * Vivência prática em migração de dados on\-premises para AWS (incluindo estratégias de extração, replicação, staging e transformação). * Domínio de Python, SQL e modelagem de dados. * Experiência com AWS Glue, Lambda, Step Functions, Redshift, S3, Athena, IAM, Lake Formation. * Conhecimento de infraestrutura como código (Terraform ou CloudFormation). * Experiência com CI/CD (GitLab, GitHub Actions, Jenkins). * Entendimento de pipelines ELT, mensageria (Kafka/Kinesis) e automação de processos de dados. * Noções de machine learning e IA aplicada a pipelines de dados. * Espanhol técnico (leitura e escrita). * Perfil empreendedor, com apetite por grandes desafios de negócios e vontade de trabalhar na dinâmica de uma consultoria. Diferenciais: * Certificações AWS (Data Engineer, Solutions Architect ou Machine Learning). * Experiência com ferramentas de replicação (AWS DMS, Snowball, Datastream, etc.). * Experiência em modernização de data warehouses legados (Oracle, SQL Server, Teradata). * Conhecimento em Data Mesh e Lakehouse architectures. * Experiência com monitoramento e FinOps de ambientes cloud. * Participação em projetos de IA generativa ou integração com modelos foundation (Bedrock, OpenAI). Soft Skills * Perfil analítico e orientado a resultados. * Boa comunicação técnica e capacidade de traduzir soluções complexas para o negócio. * Proatividade para resolver problemas e sugerir melhorias contínuas. * Colaboração com múltiplas áreas e liderança técnica de squads. * Curiosidade por novas tecnologias e boas práticas de engenharia cloud. Principais atividades: * Conduzir a migração de dados e workloads de ambientes on\-premises (bancos relacionais, data warehouses e aplicações legadas) para a plataforma AWS. * Planejar e executar a modernização da arquitetura de dados, definindo camadas de ingestão, tratamento e consumo. * Implementar pipelines escaláveis usando AWS Glue, Lambda, Step Functions, Kinesis, S3 e Redshift. * Desenhar e aplicar estratégias de particionamento, compressão, versionamento e lineage dos dados. * Criar modelos analíticos e operacionais aderentes à arquitetura alvo (Data Lake / Lakehouse). * Garantir segurança, compliance e governança de dados (IAM, Lake Formation, encryption, tagging). * Utilizar Terraform e CI/CD para automação e versionamento da infraestrutura. * Conectar pipelines de dados a modelos de Machine Learning / IA hospedados em SageMaker. * Participar de workshops de migração com times de infraestrutura, negócio e governança de TI. * Apoiar a criação de padrões e boas práticas para futuras migrações e novos domínios de dados. * Desenhar e implementar orquestração de dados em ferramentas como Airflow. 2511090202181618467
Vaga originalmente publicada em: indeed
💼 Encontre as melhores oportunidades para desenvolvedores no Job For Dev