Desenvolvedor de Plataforma de Governança de Dados
Descrição da Vaga
Requisitos **Responsabilidades e Atribuições** • Projetar, desenvolver e manter ferramentas e serviços voltados à governança de dados, com foco em eficiência, escalabilidade e automação; • Criar e evoluir ferramenta de qualidade de dados, integrando\-os com pipelines e plataformas existentes; • Desenvolver melhorias e novas funcionalidades no catálogo de dados, com diferencial para experiência prévia com OpenMetadata considerando os processos de ciclo de vida dos dados estabelecido pela empresa; • Contribuir para a evolução de ferramentas baseadas em LLMs voltadas à governança de dados; • Atuar na modernização e automação de processos de governança de dados, alinhando tecnologia com boas práticas e eficiência operacional; • Utilizar Azure DevOps para gestão de tarefas e versionamento; • Garantir a documentação técnica clara e atualizada das soluções desenvolvidas. • Trabalhar em estreita colaboração com engenheiros de dados, analistas e áreas de negócios; • Participar das cerimônias de ágil do time (SAFe/Scrum/Kanban), utilização do Jira e dar clareza do andamento das atividades, refinar atividades, apontar riscos e impedimentos de forma clara e tempestiva; \_\_\_\_\_\_\_\_\_\_\_\_\_\_ **Requisitos e Qualificações** • Formação superior completa em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas; • Perfil pró\-ativo, capaz de resolver problemas complexos e impedimentos de forma autônoma. • Experiência prática no desenvolvimento de soluções para governança de dados ou plataforma de dados; • Conhecimento e experiência com as seguintes tecnologias: o Cloud AWS: Bedrock, S3, Glue Catalog, EKS, ECR, RDS (Postgres). Desejável: Athena, Lambda, DMS o Orquestração e containers: Kubernetes, Docker o Ferramentas de dados ( Desejável ): Trino, ElasticSearch, OpenMetadata o DevOps: GitHub. Desejável: Azure DevOps API o Monitoramento: Grafana • Conhecimento em ferramentas de orquestração de dados, como Apache Airflow. Desejável: Databricks Workflow e CI/CD. • Vivência com ferramentas e frameworks de ETL/ELT. • Vivência comprovada em bancos de dados relacionais e não relacionais • Capacidade analítica e estratégica para resolver problemas complexos. • Domínio em linguagens de programação como Python (FastAPI) e PySpark. • Experiência com arquitetura de microsserviços e APIs; • Desejável: Ferramentas de consumo de dados: Kafka, Spark Streaming • Conhecimento em práticas de qualidade de dados, metadados, linhagem e MDM; • Perfil proativo, com forte senso de ownership e foco em entrega de valor; • Boa comunicação e capacidade de trabalhar de forma colaborativa em times multidisciplinares; • Habilidade para documentar soluções de forma clara e objetiva.
Vaga originalmente publicada em: linkedin
Receba vagas como esta no seu email
Crie um alerta gratuito e seja o primeiro a saber de novas oportunidades
Alertas que entendem o que você quer
Não receba qualquer vaga. Receba apenas as que combinam exatamente com o que você busca.
Filtro:
Você recebe tudo isso:
Filtro:
Você recebe apenas:
Zero ruído. Só vagas relevantes para você.
Outros exemplos de filtros precisos:
Filtros Combinados
Combine linguagem + framework + nível + localização. Seja tão específico quanto quiser.
Email Diário
Receba um resumo diário apenas com vagas que passam nos seus filtros. Sem spam.
Kanban Visual
Organize suas candidaturas em um quadro Kanban. Acompanhe cada processo seletivo.
Planos simples, sem surpresas
Comece grátis e faça upgrade quando quiser
Premium
- Tudo do plano gratuito
- Vagas salvas ilimitadas
- Quadros Kanban ilimitados
- Alertas de vagas por email
- Suporte prioritário
Pronto para encontrar sua vaga ideal?
Junte-se a milhares de desenvolvedores que já usam o Job For Dev
Encontre as melhores oportunidades para desenvolvedores no Job For Dev