Engenheiro de Dados Sênior
Descrição da Vaga
**Descrição Da Vaga** Buscamos um(a) **Engenheiro(a) de Dados** para atuar no **mapeamento e documentação de fontes de dados** junto aos times internos e **fornecedores externos** (ex.: **SGA, PROSIS, ServiceNow** ), definindo **especificações de ingestão** , **padronização de conectores** e **mecanismos de ETL/ELT** . Será responsável por **projetar, construir e operar pipelines** com foco em **segurança, desempenho, confiabilidade e conformidade** (governança/LGPD), garantindo a **disponibilização de dados** para as camadas de consumo e para o catálogo corporativo. **Responsabilidades** * Levantar requisitos técnicos com áreas internas e parceiros (SGA, PROSIS, ServiceNow etc.) para mapear, classificar e documentar fontes de dados (estruturados, semiestruturados e APIs). * Definir especificações de ingestão (batch/streaming), padrões de conectores e contratos de dados (esquemas, SLAs/SLOs, versionamento). * Projetar e implementar pipelines ETL/ELT resilientes e observáveis (reprocessamento, idempotência, alertas), com monitoramento de qualidade (DQ checks) e linhagem ponta a ponta. * Otimizar desempenho e custo (particionamento, clustering, compressão, paralelismo), observando FinOps quando aplicável. * Publicar datasets nas camadas Bronze/Silver/Gold e no catálogo corporativo (metadados, política de acesso, classificação). * Garantir segurança e conformidade: IAM, criptografia, mascaramento, anonimização/pseudonimização, retenção e auditoria, alinhado a LGPD e políticas de governança. * Operar e evoluir a orquestração (dep/execução, retries, SLAs), realizar tuning/troubleshooting e apoiar times de analytics/BI no consumo. * Colaborar com times de Produto/Negócio na definição de regras de negócio e no handoff para camadas de consumo (APIs, views, marts). **Requisitos** * Experiência comprovada em engenharia de dados com construção e operação de pipelines ETL/ELT (batch e/ou streaming). * Sólido SQL e Python; vivência com Spark e/ou dbt é diferencial. * Prática em cloud data platforms (preferencialmente GCP: BigQuery, Dataflow/Dataproc, Pub/Sub, Cloud Storage, Cloud Composer, Dataplex; ou equivalentes em AWS/Azure). * Conhecimentos de catálogo e linhagem (ex.: Dataplex/Data Catalog/Atlas), qualidade de dados, modelagem para analytics (Medalhão, marts). * Experiência com orquestração (Airflow/Composer), Git/CI\-CD e observabilidade (logs, métricas, alertas). * Noções de segurança e privacidade (IAM, criptografia, LGPD), integração por APIs e conectores (REST, JDBC/ODBC). * Habilidade de documentação técnica e comunicação com áreas de negócio e fornecedores. * Graduação em TI, Engenharias, Computação, Sistemas de Informação ou áreas correlatas; certificações (ex.: GCP Data Engineer, dbt, ITIL/DAMA) são diferenciais. **Departamento** Corp
Vaga originalmente publicada em: linkedin
Receba vagas como esta no seu email
Crie um alerta gratuito e seja o primeiro a saber de novas oportunidades
Alertas que entendem o que você quer
Não receba qualquer vaga. Receba apenas as que combinam exatamente com o que você busca.
Filtro:
Você recebe tudo isso:
Filtro:
Você recebe apenas:
Zero ruído. Só vagas relevantes para você.
Outros exemplos de filtros precisos:
Filtros Combinados
Combine linguagem + framework + nível + localização. Seja tão específico quanto quiser.
Email Diário
Receba um resumo diário apenas com vagas que passam nos seus filtros. Sem spam.
Kanban Visual
Organize suas candidaturas em um quadro Kanban. Acompanhe cada processo seletivo.
Planos simples, sem surpresas
Comece grátis e faça upgrade quando quiser
Premium
- Tudo do plano gratuito
- Vagas salvas ilimitadas
- Quadros Kanban ilimitados
- Alertas de vagas por email
- Suporte prioritário
Pronto para encontrar sua vaga ideal?
Junte-se a milhares de desenvolvedores que já usam o Job For Dev
Encontre as melhores oportunidades para desenvolvedores no Job For Dev