Sobre a vaga
Estamos em busca de um Cientista de Dados Pleno para iniciar o desenvolvimento e manutenção de pipelines ETL, modelagem de dados e otimização de estratégias de observabilidade. O profissional será responsável por garantir a eficiência, escalabilidade e governança dos dados, além de atuar com integração de dados, infraestrutura como código (IaC) e monitoramento de ambientes.
Se você tem experiência com Kafka, Logstash, KSQL, ElasticSearch, Azure e Data Lakes, essa é a oportunidade ideal para você!
Principais responsabilidades
- Garantir a integridade e disponibilidade dos ambientes de dados;
- Atuar em incidentes e manutenção de pipelines ETL, garantindo estabilidade no fluxo de dados;
- Criar e melhorar estratégias de observabilidade de infraestrutura , garantindo monitoramento com Kibana ou Grafana;
- Trabalhar na estruturação e otimização de Data Lakes , promovendo governança e eficiência;
- Atuar na integração e inserção de dados utilizando Kafka, KSQL e Logstash;
- Desenvolver processos de CI/CD utilizando Jenkins ou Azure DevOps para automação de implantações e versionamento;
- Aplicar infraestrutura como código (IaC) para provisionamento e manutenção de ambientes de dados;
- Trabalhar em ambientes híbridos (Cloud e On-Premises) para processamento e armazenamento de grandes volumes de dados;
- Apoiar tempos de engenharia e produtos em definições estratégicas e implementação de soluções;
- Participar de brainstormings e provas de conceitos (POCs) para validação de novas tecnologias e metodologias;
- Contribuir para a evolução das decisões tecnológicas, pilha de dados e arquitetura da empresa.
Experiência mínima
- 3+ anos de experiência em ciência de dados, engenharia de dados ou análise avançada de dados;
- Conhecimento em Kafka, KSQL, Logstash e ElasticSearch para conversão e transformação de dados;
- Experiência com monitoramento de infraestrutura utilizando Kibana ou Grafana;
- Experiência com infraestrutura como código (IaC) e automação de processos (CI/CD) com Jenkins ou Azure DevOps;
- Conhecimento em Azure Cloud para gerenciamento e escalabilidade de infraestrutura de dados;
- Experiência com Data Lakes e organização de dados para análises avançadas.
Requisitos essenciais
✅ ETL com Kafka, KSQL, Logstash e ElasticSearch: Processamento e transformação de dados em grande escala;
✅ CI/CD com Jenkins ou Azure DevOps: Automação de deploys e versionamento de código;
✅ Monitoramento de infraestrutura com Kibana/Grafana: Observabilidade e alertas para otimização do ambiente;
✅ Criação e otimização de Data Lakes: Estrutura eficiente para armazenamento e processamento de dados;
✅ Infraestrutura como Código (IaC): Provisionamento e automação de recursos;
✅ Gerenciamento de ambientes híbridos (Cloud e On-Premises): Configuração e manutenção de infraestruturas de dados;
✅ Implementação de estratégias de recuperação de desastres.
Requisitos desejáveis
➕ Experiência com Conector Debezium para captura de mudanças de dados (CDC);
➕ Habilidade para atuar em liderança técnica e consultoria para equipes de engenharia;
➕ Conhecimento avançado em arquiteturas de Data Lake para organização e governança de dados;
➕ Experiência com stack Hadoop/Spark para processamento de grandes volumes de dados;
➕ Experiência em infraestrutura híbrida (Cloud e On-Premises).
📩 Como se candidatar
Cadastre-se diretamente em no formulário abaixo.
🚀 Venha fazer parte do nosso time e construir soluções inovadoras!