Engenheiro de Dados Pleno
Descrição da Vaga
Atuar como ponte entre as áreas de negócio e dados, estruturando soluções que transformem dados brutos em informações relevantes, confiáveis e acessíveis. O profissional será responsável por toda a cadeia de dados — desde a ingestão e tratamento até a modelagem e disponibilização para análise — com foco em performance, escalabilidade e governança. Seu trabalho apoiará decisões estratégicas e operacionais em um ambiente dinâmico e orientado por dados. Perfil Profissional Desejado \* Proatividade e autonomia, com forte capacidade de autogestão em ambientes ágeis. \* Mentalidade analítica e crítica, com atenção aos detalhes e foco em qualidade. \* Abertura para aprendizado contínuo, com interesse em novas tecnologias e melhores práticas. \* Boa comunicação e colaboração, especialmente com times multidisciplinares (produto, tecnologia, negócio). Soft Skills Comunicação e Colaboração: \* Capacidade de comunicar ideias de forma clara e objetiva com stakeholders técnicos e não técnicos. \* Habilidade para negociar prazos e prioridades com diferentes áreas. \* Planejamento e Organização \* Capacidade de estruturar cronogramas com entregas bem definidas. \* Organização na priorização e acompanhamento de tarefas. Idiomas: \* Inglês avançado para leitura (documentação técnica, fóruns, artigos). \* Inglês básico/intermediário para conversação técnica. Hard Skills Engenharia de Dados: \* Domínio em processos de ETL/ELT, com construção de pipelines eficientes e escaláveis. \* Modelagem de dados de ambientes analíticos. \* Garantia da qualidade, integridade e rastreabilidade dos dados. Linguagens e Ferramentas: \* SQL avançado (CTEs, janelas, subqueries, tuning, CDC, procedures). \* Conhecimento avançado de Python (Pandas, MLFlow, Flask). \* Containers, escalabilidade em Cloud, filas e processamento paralelo. \* Familiaridade com Google BigQuery – diferencial positivo. \* Manipulação de grandes volumes de dados (Big Data) com foco em performance e custo. \* Desenvolvimento de API REST para integração e extração de dados externos. \* Versionamento de código com Git/GitHub e documentação técnica utilizando o Confluence. Modelagem e Arquitetura de Dados: \* Experiência com modelagem dimensional (Star Schema, Snowflake, Flat Tables, cubos). \* Conhecimento de normalização de dados (1FN, 2FN, 3FN). \* Prática com CDC (Change Data Capture) e controle de versionamento de dados. \* Arquiteturas de dados como Lakehouse e modelo em camadas (raw, refined, trusted). \* Pipeline de dados em diferentes modos: batch, online, near real\-time. Qualidade e Governança: \* Técnicas de data quality e validação de dados. \* Boas práticas de nomeação, padronização e organização de schemas, tabelas e queries. \* Garantia da consistência do dado end\-to\-end, desde o sistema de origem até a camada analítica. \* Conhecimento de segurança da informação e LGPD para tratamento de dados sensíveis, utilizando criptografia e anonimização. Automação e Orquestração: \* Experiência com ferramentas de scheduling e orquestração de pipelines (Dataflow, Airflow). \* Conhecimento em DAGs, agendamento de jobs e estratégias de self\-service para dados. \* Extração/Scraping e manipulação de dados não estruturados, e conversão para JSON, Parquet, Avro ou CSV. Desenvolvimento e Testes: \* Metodologias de desenvolvimento ágil aplicadas a projetos de dados (Scrum, Kanban). \* Criação de massas de dados para testes, versionamento e deploy de pipelines. Tipo de vaga: Efetivo CLT Pagamento: R$5\.257,55 \- R$6\.838,46 por mês Benefícios: * Assistência médica * Assistência odontológica * Participação nos lucros * Seguro de vida * Vale\-refeição * Vale\-transporte Pergunta(s) de seleção: * Pretensão salarial? * Disponibilidade para escala híbrida, 2 dias por semana presencial no escritório em SP?
Vaga originalmente publicada em: indeed
💼 Encontre as melhores oportunidades para desenvolvedores no Job For Dev