DataOps Engineer
Descrição da Vaga
Você é um profissional dinâmico, proativo, orientado por dados, com uma paixão por viagens e sede por crescimento? Somos a Gipsyy, uma empresa líder em tecnologia no setor de viagens, e estamos em busca de um(a) (Insira o cargo aqui) para ajudar a impulsionar nosso negócio para novos patamares. **Sobre Nós**: A Gipsyy está a frente da inovação no mercado de viagens de ônibus, utilizando a tecnologia para ajudar a moldar o futuro das viagens e criar experiências inesquecíveis para nossos clientes. Com foco em fornecer um serviço de primeira linha e soluções de ponta, estamos em busca de alguém talentoso para embarcar a bordo do nosso ônibus e criar viagens que transformam. **Visão Geral da Função:** Buscamos um(a) **DataOps Engineer** para ser o pilar de confiabilidade, automação e governança da nossa plataforma de dados. Sua missão é aplicar os princípios de DevOps, SRE e Engenharia de Software para construir e operar um ecossistema de dados de classe mundial. Você irá garantir que nossos pipelines de dados e modelos de IA sejam robustos, escaláveis, seguros e entreguem dados confiáveis na velocidade que o negócio precisa. Você será responsável por transformar nossa infraestrutura de dados em código, implementar CI/CD para dados, garantir observabilidade completa e orquestrar fluxos complexos, permitindo que nossas equipes de Analytics, Data Science e Machine Learning inovem com segurança e agilidade. **Responsabilidades e atribuições** * **Infraestrutura como Código (IaC) e Automação:** Projetar, provisionar e gerenciar nossa infraestrutura de dados (AWS, GCP) utilizando Terraform. Automatizar tudo, desde a configuração de redes e permissões até o auto\-scaling de clusters. * **Orquestração e CI/CD para Dados:** Construir e otimizar pipelines de CI/CD (GitHub Actions) para automação de testes, validação de schemas e deploy seguro de fluxos de dados, transformações (dbt) e modelos de ML. * **Pipelines de Dados Robustos:** Orquestrar fluxos de dados complexos (batch e streaming) com ferramentas como Airflow, Kafka, Flink, garantindo recuperação automática de falhas, alertas proativos e execução eficiente. * **Observabilidade e Confiabilidade (Data SRE):** Implementar um sistema de monitoramento completo com Prometheus, Grafana ou Datadog. Definir e garantir SLAs, SLOs e SLIs para os pipelines de dados, liderando a resposta a incidentes e a análise de causa raiz. * **Qualidade de Dados e Governança:** Integrar frameworks de testes automatizados de dados (Great Expectations, dbt tests) no ciclo de desenvolvimento. Implementar governança de dados com versionamento de schemas, catalogação e controle de linhagem (data lineage). * **Performance e Otimização de Custos (FinOps):** Otimizar o desempenho e o custo de e pipelines em ambientes distribuídos. Implementar estratégias de particionamento, cache e paralelização para garantir a eficiência dos nossos recursos de cloud. * **Parceria Estratégica:** Atuar como um parceiro técnico para as equipes de Engenharia de Dados, ML Engineering e Ciência de Dados, fornecendo uma plataforma estável e dados confiáveis para acelerar a inovação e a entrega de valor. **Requisitos e qualificações** * Proficiência em **Python, SQL** e automação de scripts (shell). * Experiência sólida com **Infrastructure as Code (Terraform)** para ambientes de dados. * Experiência prática na construção de pipelines de **CI/CD** (GitHub Actions, GitLab CI, Jenkins) aplicados a dados e ML. * Profundo conhecimento em orquestradores de workflow, especialmente **Apache Airflow**. * Vivência com processamento de dados em larga escala usando **Apache Spark** (batch e streaming). * Familiaridade com o ecossistema de dados moderno, incluindo ferramentas como **dbt, Kafka, Flink e Airbyte**. * Experiência na implementação de **monitoramento e observabilidade** com ferramentas como Prometheus, Grafana ou ELK Stack. **Diferenciais (Conhecimentos Avançados):** ------------------------------------------- * Experiência com múltiplas plataformas de cloud (AWS, GCP, Azure) e Databricks. * Conhecimento de arquiteturas modernas como Data Lakehouse e Data Mesh. * Vivência com frameworks de teste de dados (ex: Great Expectations, Soda). * Experiência com orquestração de containers com Kubernetes (e ferramentas como Kubeflow). * Conhecimento em bases de dados analíticas (OLAP) como ClickHouse, Pinot ou Trino. * Familiaridade com ferramentas de governança como Unity Catalog ou OpenMetadata. **Informações adicionais** #### **Visando o seu bem\-estar, nós oferecemos:** * Vale Refeição no cartão Caju (flexível para outras despesas); * Assistência Médica com coparticipação (SulAmérica); * Reembolso do Gympass de acordo com o seu cargo; * Gratuidade na passagem de ônibus Guanabara; * 13° Nota; * Recesso remunerado; #### **Além disso, pensando na sua experiência, contamos com...** * Ambiente de trabalho dinâmico e que incentiva a criatividade; * Horário flexível; * No dress code; * Day off no mês de aniversário. #### **Por que vir para a Gipsyy?** * Oportunidade de fazer parte de uma equipe de alto impacto em um ambiente acelerado e impulsionado pela tecnologia. * Uma cultura de inovação, colaboração e aprendizado contínuo. * Nos comprometemos a criar um ambiente de trabalho diversificado e inclusivo, incentivamos candidaturas de pessoas de todos os backgrounds. Gostou? Embarque com a gente nessa viagem! Somos a Gipsyy, uma startup de tecnologia com DNA em viagens. Temos orgulho de ser o elo digital que conecta passageiros as maiores eempresas do setor rodoviário no país. Nossa missão é facilitar e revolucionar a experiência de compra de passagens, tornando as viagens rodoviárias mais acessíveis, digitais e convenientes para todos. Estamos constantemente em busca de talentos inovadores e apaixonados por tecnologia e viagens, que queiram fazer a diferença e crescer conosco. E aí, embarca nessa com a gente?
Vaga originalmente publicada em: indeed
💼 Encontre as melhores oportunidades para desenvolvedores no Job For Dev