Engenheiro de Dados Sênior
Descrição da Vaga
O profissional será responsável pela extração, transformação e carga (ETL/ELT) dos dados que abastecem o Lakehouse no Databricks. Atuar na automação de pipelines, qualidade de dados e integração entre sistemas transacionais (ERPs) e camadas analíticas. **Responsabilidades:** Construir e otimizar pipelines de ingestão e transformação de dados no Databricks Integrar múltiplas fontes de dados (Senior, Iniflex, GI, Metrics) Implementar rotinas de Data Quality e observabilidade Desenvolver jobs em PySpark, SQL e Delta Live Tables Automatizar deploys e versionamento via Git e CI/CD Colaborar com o Arquiteto para manter padrões técnicos e de performance Modelo de trabalho híbrido, sendo de 2 a 3x por semana no escritório do cliente **Local:** Prox ao Shopping Morumbi \- São Paulo/SP **Requisitos:** Experiência comprovada em Databricks / Spark / Delta Lake Proficiência em Python, SQL avançado e ETL Experiência com Power BI (DAX, Power Query, Data Modeling) Experiencia com desenvolvimento de dashboards Conhecimento em Qlik Sense / Qlik Cloud Experiência com pipelines batch e streaming Conhecimento em integrações ERP (APIs, arquivos, bancos relacionais) Experiência com monitoramento de jobs e alertas Formação em Ciência da Computação, Engenharia, ou áreas correlatas à tecnologia; Experiência comprovada em Databricks, Power BI, Power Apps, Python, PySpark e SQL. Conhecimento em lógica de programação e consistência de dados **Diferenciais:** Experiência com Delta Live Tables, Unity Catalog ou MLflow Vivência com Azure Data Factory, Synapse ou Airflow Soft Skills Foco em resolução de problemas e performance Mentalidade DevOps e de automação Boa comunicação e trabalho em equipe
Vaga originalmente publicada em: indeed
💼 Encontre as melhores oportunidades para desenvolvedores no Job For Dev