DataOps Engineer
Descrição da Vaga
Você é um profissional dinâmico, proativo, orientado por dados, com uma paixão por viagens e sede por crescimento? Somos a Gipsyy, uma empresa líder em tecnologia no setor de viagens, e estamos em busca de um(a) (Insira o cargo aqui) para ajudar a impulsionar nosso negócio para novos patamares. **Sobre Nós**: A Gipsyy está a frente da inovação no mercado de viagens de ônibus, utilizando a tecnologia para ajudar a moldar o futuro das viagens e criar experiências inesquecíveis para nossos clientes. Com foco em fornecer um serviço de primeira linha e soluções de ponta, estamos em busca de alguém talentoso para embarcar a bordo do nosso ônibus e criar viagens que transformam. **Visão Geral da Função:** Buscamos um(a) **DataOps Engineer** para ser o pilar de confiabilidade, automação e governança da nossa plataforma de dados. Sua missão é aplicar os princípios de DevOps, SRE e Engenharia de Software para construir e operar um ecossistema de dados de classe mundial. Você irá garantir que nossos pipelines de dados e modelos de IA sejam robustos, escaláveis, seguros e entreguem dados confiáveis na velocidade que o negócio precisa. Você será responsável por transformar nossa infraestrutura de dados em código, implementar CI/CD para dados, garantir observabilidade completa e orquestrar fluxos complexos, permitindo que nossas equipes de Analytics, Data Science e Machine Learning inovem com segurança e agilidade. **Responsabilidades e atribuições** * **Infraestrutura como Código (IaC) e Automação:** Projetar, provisionar e gerenciar nossa infraestrutura de dados (AWS, GCP) utilizando Terraform. Automatizar tudo, desde a configuração de redes e permissões até o auto\-scaling de clusters. * **Orquestração e CI/CD para Dados:** Construir e otimizar pipelines de CI/CD (GitHub Actions) para automação de testes, validação de schemas e deploy seguro de fluxos de dados, transformações (dbt) e modelos de ML. * **Pipelines de Dados Robustos:** Orquestrar fluxos de dados complexos (batch e streaming) com ferramentas como Airflow, Kafka, Flink, garantindo recuperação automática de falhas, alertas proativos e execução eficiente. * **Observabilidade e Confiabilidade (Data SRE):** Implementar um sistema de monitoramento completo com Prometheus, Grafana ou Datadog. Definir e garantir SLAs, SLOs e SLIs para os pipelines de dados, liderando a resposta a incidentes e a análise de causa raiz. * **Qualidade de Dados e Governança:** Integrar frameworks de testes automatizados de dados (Great Expectations, dbt tests) no ciclo de desenvolvimento. Implementar governança de dados com versionamento de schemas, catalogação e controle de linhagem (data lineage). * **Performance e Otimização de Custos (FinOps):** Otimizar o desempenho e o custo de e pipelines em ambientes distribuídos. Implementar estratégias de particionamento, cache e paralelização para garantir a eficiência dos nossos recursos de cloud. * **Parceria Estratégica:** Atuar como um parceiro técnico para as equipes de Engenharia de Dados, ML Engineering e Ciência de Dados, fornecendo uma plataforma estável e dados confiáveis para acelerar a inovação e a entrega de valor. **Requisitos e qualificações** * Proficiência em **Python, SQL** e automação de scripts (shell). * Experiência sólida com **Infrastructure as Code (Terraform)** para ambientes de dados. * Experiência prática na construção de pipelines de **CI/CD** (GitHub Actions, GitLab CI, Jenkins) aplicados a dados e ML. * Profundo conhecimento em orquestradores de workflow, especialmente **Apache Airflow**. * Vivência com processamento de dados em larga escala usando **Apache Spark** (batch e streaming). * Familiaridade com o ecossistema de dados moderno, incluindo ferramentas como **dbt, Kafka, Flink e Airbyte**. * Experiência na implementação de **monitoramento e observabilidade** com ferramentas como Prometheus, Grafana ou ELK Stack. **Diferenciais (Conhecimentos Avançados):** ------------------------------------------- * Experiência com múltiplas plataformas de cloud (AWS, GCP, Azure) e Databricks. * Conhecimento de arquiteturas modernas como Data Lakehouse e Data Mesh. * Vivência com frameworks de teste de dados (ex: Great Expectations, Soda). * Experiência com orquestração de containers com Kubernetes (e ferramentas como Kubeflow). * Conhecimento em bases de dados analíticas (OLAP) como ClickHouse, Pinot ou Trino. * Familiaridade com ferramentas de governança como Unity Catalog ou OpenMetadata. **Informações adicionais** #### **Visando o seu bem\-estar, nós oferecemos:** * Vale Refeição no cartão Caju (flexível para outras despesas); * Assistência Médica com coparticipação (SulAmérica); * Reembolso do Gympass de acordo com o seu cargo; * Gratuidade na passagem de ônibus Guanabara; * 13° Nota; * Recesso remunerado; #### **Além disso, pensando na sua experiência, contamos com...** * Ambiente de trabalho dinâmico e que incentiva a criatividade; * Horário flexível; * No dress code; * Day off no mês de aniversário. #### **Por que vir para a Gipsyy?** * Oportunidade de fazer parte de uma equipe de alto impacto em um ambiente acelerado e impulsionado pela tecnologia. * Uma cultura de inovação, colaboração e aprendizado contínuo. * Nos comprometemos a criar um ambiente de trabalho diversificado e inclusivo, incentivamos candidaturas de pessoas de todos os backgrounds. Gostou? Embarque com a gente nessa viagem! Somos a Gipsyy, uma startup de tecnologia com DNA em viagens. Temos orgulho de ser o elo digital que conecta passageiros as maiores eempresas do setor rodoviário no país. Nossa missão é facilitar e revolucionar a experiência de compra de passagens, tornando as viagens rodoviárias mais acessíveis, digitais e convenientes para todos. Estamos constantemente em busca de talentos inovadores e apaixonados por tecnologia e viagens, que queiram fazer a diferença e crescer conosco. E aí, embarca nessa com a gente?
Vaga originalmente publicada em: indeed
Receba vagas como esta no seu email
Crie um alerta gratuito e seja o primeiro a saber de novas oportunidades
Alertas que entendem o que você quer
Não receba qualquer vaga. Receba apenas as que combinam exatamente com o que você busca.
Filtro:
Você recebe tudo isso:
Filtro:
Você recebe apenas:
Zero ruído. Só vagas relevantes para você.
Outros exemplos de filtros precisos:
Filtros Combinados
Combine linguagem + framework + nível + localização. Seja tão específico quanto quiser.
Email Diário
Receba um resumo diário apenas com vagas que passam nos seus filtros. Sem spam.
Kanban Visual
Organize suas candidaturas em um quadro Kanban. Acompanhe cada processo seletivo.
Planos simples, sem surpresas
Comece grátis e faça upgrade quando quiser
Premium
- Tudo do plano gratuito
- Vagas salvas ilimitadas
- Quadros Kanban ilimitados
- Alertas de vagas por email
- Suporte prioritário
Pronto para encontrar sua vaga ideal?
Junte-se a milhares de desenvolvedores que já usam o Job For Dev
Encontre as melhores oportunidades para desenvolvedores no Job For Dev