Engenheiro(a) de Dados SR

Objective
Sênior
Remoto 🌐
Publicado em 28 de novembro de 2025

Descrição da Vaga

Somos ávidos por tecnologia, criatividade e desafios. Se você gosta de desafios, aprendizado constante e valoriza as conexões pessoais, junte\-se a nós! \# Valorizamos a diversidade e acreditamos que ela é fundamental para a inovação e entregas de valor aos nossos clientes. Todas as nossas vagas são destinadas a todas as pessoas, com ou sem deficiência, independentemente de idade, gênero, orientação sexual, etnia, religião ou qualquer outra característica. Se você se identifica com a posição, venha fazer parte do nosso time! **O QUE BUSCAMOS?** Buscamos um(a) **Engenheiro(a) de Dados**, em níveis de carreira **Sênior**, que queiram trabalhar conosco em um ambiente descontraído e dinâmico, com aprendizado contínuo no desenvolvimento de grandes projetos, junto a grandes clientes nacionais e internacionais. Temos escritórios em Maringá, São Paulo e Chicago (EUA), mas a nossa atuação é remota: por aqui preferimos chamar de *anywhere office*. **O QUE ESSE PROFISSIONAL IRÁ FAZER?** * Projetar e implementar pipelines de dados escaláveis usando AWS Glue/Spark, Step Functions, Lambda, EMR e integrações. * Modelar e otimizar Data Lake/Lakehouse. * Administrar e tunar Amazon Redshift (sort/dist keys, WLM/Auto WLM, RA3, Concurrency Scaling, materialized views, Spectrum, UNLOAD/COPY, late\-binding views). * Garantir qualidade de dados e observabilidade. * Implementar governança e segurança (Lake Formation, IAM least\-privilege, KMS, RLS/CLS, mascaramento, auditoria). * Automatizar infraestrutura com IaC (Terraform), CI/CD (GitHub Actions/GitLab CI), versionamento e revisão de código. * Realizar code reviews criteriosos (legibilidade, padrões, testes, custos/performance), além de mentorar o time para elevar a barra técnica. * Trabalhar com times de produto, analytics e ciência de dados para disponibilizar datasets confiáveis e bem documentados (dbt/Docs, data contracts, lineage). * Otimizar custo/performance continuamente (storage tiers, workload management, caching, compressão, layout físico, vacuum/maintenance). **O QUE É NECESSÁRIO PARA A POSIÇÃO?** * Experiência sólida em AWS com foco prático em Redshift e S3\. * Vivência com ETL/ELT usando AWS Glue (PySpark) e/ou EMR/Spark; orquestração com Step Functions ou Airflow. * Domínio de SQL avançado (window functions, CTEs, otimização de queries) e noções de modelagem dimensional (Star/Snowflake) e/ou Data Vault. * Conhecimentos de formato columnar, particionamento por data/chaves, Glue Catalog/Athena. * Boas práticas de segurança (IAM/KMS), monitoramento (CloudWatch) e logging. * Python (Pandas/PySpark) para jobs e utilitários; Lambda (Serverless). * Domínio de Git e pipelines de CI/CD. * Comunicação clara, mentalidade de dono(a) e foco em entrega com qualidade. * Inglês técnico. **O QUE SERIA UM DIFERENCIAL?** * dbt (tests, docs, exposures) e data lineage. * Lakehouse com Apache Iceberg/Delta/Hudi; Athena/Spectrum avançado e Redshift Spectrum bem estruturado. * Qualidade de dados com Great Expectations ou Deequ; contratos de esquema (Avro/Protobuf), Schema Registry. * FinOps aplicado a dados (custo por workload, chargeback/showback, otimização de armazenamento/transferência). * Observabilidade: CloudWatch Logs/ Metrics, OpenTelemetry, QMRs no Redshift. * Redshift Serverless, Materialized Views avançadas (PIT/bridges em Business Vault), RLS/CLS prático. * Segurança e compliance: Lake Formation fine\-grained, tagging, mascaramento dinâmico. * Scala/Spark estruturado, Polars/Pandas para utilitários, Airflow avançado. **ETAPAS DO PROCESSO:** * Inscrição * Fit cultural * Entrevista técnica * Entrevista com o cliente

Vaga originalmente publicada em: indeed

💼 Encontre as melhores oportunidades para desenvolvedores no Job For Dev