Mid Level Data Engineer (GCP)
Descrição da Vaga
**Olá, nós somos o CESAR!** =========================== Somos um centro de inovação e de educação que há quase 30 anos forma pessoas e impulsiona organizações, potencializando suas estratégias digitais. Resolvemos problemas complexos e desafiadores em um ambiente de trabalho descontraído, descentralizado e repleto de benefícios para nossos colaboradores, que atuam como protagonistas, interagindo diretamente com clientes de escala global. Como **Mid\-Level Data Engineer (GCP)**, sua missão será de assegurar a qualidade do produto, promovendo a evolução do time, adquirindo e compartilhando boas práticas e conhecimento técnico, topa? Vamos nessa! *Esperamos que você tenha as habilidades e experiências necessárias para:* * Desenvolver produtos analíticos de dados utilizando Airflow, DataProc, PySpark e BigQuery na Google Cloud Platform, com sólidos princípios de data warehouse. * Construir pipelines de dados para monitorar a qualidade dos dados e o desempenho dos modelos analíticos. * Manter a Infraestrutura da plataforma de dados usando Terraform e desenvolver, avaliar e entregar um código, por meio de CI/CD. * Colaborar com as partes envolvidas na análise de dados para agilizar o processo de aquisição, processamento e apresentação dos dados. * Implementar um modelo de governança de dados empresarial e promover ativamente o conceito de proteção, compartilhamento, reutilização, qualidade e padrões de dados. * Melhorar e manter as capacidades de DevOps da plataforma de dados. * Otimizar e melhorar continuamente as soluções de dados existentes (pipelines, produtos, infraestrutura) para obter o melhor desempenho, alta segurança, baixa vulnerabilidade, baixos custos e alta confiabilidade. * Trabalhar em uma equipe ágil de produtos com entregas de código frequentes usando Desenvolvimento Orientado a Testes (TDD), integração contínua e implantação contínua (CI/CD). * Resolver issues de qualidade de código apontadas pelas ferramentas SonarQube, Checkmarx, Fossa e Cycode ao longo do ciclo de desenvolvimento. * Realizar quaisquer atividades necessárias de mapeamento de dados, linhagem de dados e documentação dos fluxos de informação. * Proporcionar visibilidade sobre problemas de qualidade de dados/veículo/recurso e trabalhar com os donos dos negócios para resolver os problemas. * Demonstrar conhecimento técnico e habilidades de comunicação com a capacidade de argumentar e defender soluções bem projetadas. *Precisamos que tenha:* * Inglês avançado para comunicação diária * Experiência comprovada (atuação no mercado) em Engenharia de dados, * Experiência em pelo menos três das seguintes linguagens: Java, Python, Spark, SQL. * Vivência com Engenharia de dados/software na nuvem, construção pipelines de dados escaláveis, confiáveis e custo\-efetivos usando: + Google BigQuery. + Ferramentas de orquestração de workflows como Airflow. + APIs REST para computação, armazenamento, operações e segurança. + Ferramentas de DevOps como Tekton, GitHub Actions, Git, GitHub, Terraform, Docker, Astronomer. + Ferramentas de gerenciamento de projetos como Atlassian JIRA. * Experiência trabalhando em uma equipe de implementação desde o conceito até as operações, fornecendo profunda expertise técnica para um deployment bem\-sucedido. * Experiência na implementação de métodos para automação de todas as partes do pipeline para minimizar o trabalho no desenvolvimento e na produção. * Habilidades analíticas para perfilamento de dados e resolução de problemas em pipelines/produtos de dados. * Capacidade de simplificar, comunicar claramente ideias/problemas complexos de dados/software e trabalhar com equipes multifuncionais e todos os níveis de gestão de forma independente. * Ter forte orientação para resultados e capacidade de realizar múltiplas tarefas e trabalhar de forma independente. * Experiência com otimização de desempenho em SQL, Python, PySpark ou Java. * Experiência na arquitetura de infraestrutura em nuvem e manejo de migrações/atualizações de aplicativos (Astronomer). * Compreensão da arquitetura subjacente do GCP e experiência prática com produtos como BigQuery, Google Cloud Storage, Cloud SQL, Memory Store, Dataflow, Dataproc, Artifact Registry, Cloud Build, Cloud Run, Vertex AI, Pub/Sub, APIs do GCP. Aqui no CESAR, nós temos algumas práticas que proporcionam uma rotina mais positiva para a pessoa colaboradora: * Horário flexível; * Estrutura horizontal; * Programas de treinamento e desenvolvimento; * Cultura voltada para a Diversidade \& Inclusão, onde você pode ser livre pra ser quem é! Gostou? Espera só para conferir nosso pacote variado de benefícios: * Plano de saúde e odontológico; * Vale Refeição / Alimentação; * Auxílio Idiomas; * Auxílio Creche; * Auxílio Lentes de Contato; * Seguro de Vida; * Descontos em cursos da CESAR School; * DayOff (no mês do Aniversário); * Gympass; * Moodar; * Cíngulo. Quer conhecer melhor o CESAR? Clica aqui (https://www.cesar.org.br/) e vem com a gente! \#inovacaocesar \#vemprocesar \#soucesar
Vaga originalmente publicada em: indeed
💼 Encontre as melhores oportunidades para desenvolvedores no Job For Dev