Desenvolvedor de Plataforma de Governança de Dados

Empresa Confidencial
Não especificado
Presencial
Publicado em 12 de dezembro de 2025

Descrição da Vaga

Requisitos **Responsabilidades e Atribuições** • Projetar, desenvolver e manter ferramentas e serviços voltados à governança de dados, com foco em eficiência, escalabilidade e automação; • Criar e evoluir ferramenta de qualidade de dados, integrando\-os com pipelines e plataformas existentes; • Desenvolver melhorias e novas funcionalidades no catálogo de dados, com diferencial para experiência prévia com OpenMetadata considerando os processos de ciclo de vida dos dados estabelecido pela empresa; • Contribuir para a evolução de ferramentas baseadas em LLMs voltadas à governança de dados; • Atuar na modernização e automação de processos de governança de dados, alinhando tecnologia com boas práticas e eficiência operacional; • Utilizar Azure DevOps para gestão de tarefas e versionamento; • Garantir a documentação técnica clara e atualizada das soluções desenvolvidas. • Trabalhar em estreita colaboração com engenheiros de dados, analistas e áreas de negócios; • Participar das cerimônias de ágil do time (SAFe/Scrum/Kanban), utilização do Jira e dar clareza do andamento das atividades, refinar atividades, apontar riscos e impedimentos de forma clara e tempestiva; \_\_\_\_\_\_\_\_\_\_\_\_\_\_ **Requisitos e Qualificações** • Formação superior completa em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas; • Perfil pró\-ativo, capaz de resolver problemas complexos e impedimentos de forma autônoma. • Experiência prática no desenvolvimento de soluções para governança de dados ou plataforma de dados; • Conhecimento e experiência com as seguintes tecnologias: o Cloud AWS: Bedrock, S3, Glue Catalog, EKS, ECR, RDS (Postgres). Desejável: Athena, Lambda, DMS o Orquestração e containers: Kubernetes, Docker o Ferramentas de dados ( Desejável ): Trino, ElasticSearch, OpenMetadata o DevOps: GitHub. Desejável: Azure DevOps API o Monitoramento: Grafana • Conhecimento em ferramentas de orquestração de dados, como Apache Airflow. Desejável: Databricks Workflow e CI/CD. • Vivência com ferramentas e frameworks de ETL/ELT. • Vivência comprovada em bancos de dados relacionais e não relacionais • Capacidade analítica e estratégica para resolver problemas complexos. • Domínio em linguagens de programação como Python (FastAPI) e PySpark. • Experiência com arquitetura de microsserviços e APIs; • Desejável: Ferramentas de consumo de dados: Kafka, Spark Streaming • Conhecimento em práticas de qualidade de dados, metadados, linhagem e MDM; • Perfil proativo, com forte senso de ownership e foco em entrega de valor; • Boa comunicação e capacidade de trabalhar de forma colaborativa em times multidisciplinares; • Habilidade para documentar soluções de forma clara e objetiva.

Vaga originalmente publicada em: linkedin

💼 Encontre as melhores oportunidades para desenvolvedores no Job For Dev