Sobre a vaga
Estamos buscando um Cientista de Dados Sênior para atuar na arquitetura e otimização de Data Lakes, modelagem de dados, construção de pipelines ETL e estratégias de observabilidade. O profissional será responsável por garantir a integridade, disponibilidade e escalabilidade dos ambientes de dados, além de atuar na implementação de CI/CD, infraestrutura como código (IaC) e estratégias de recuperação de desastres.
Se você tem experiência com Kafka, Logstash, KSQL, ElasticSearch, Azure e infraestrutura on-premises, essa é a oportunidade ideal para você!
Principais responsabilidades
- Garantir a integridade e disponibilidade dos ambientes de dados;
- Atuar em incidentes na fase contínua 24×7, estabilizando ambientes degradados e recuperação de dados quando necessário;
- Desenvolver e melhorar estratégias de observabilidade de infraestrutura , garantindo monitoramento com Kibana ou Grafana;
- Criar e otimizar o desempenho de Data Lakes , estruturando o armazenamento eficiente de dados;
- Configurar e manter infraestrutura local (Bare-metal) para processamento de grandes volumes de dados;
- Liderar frentes estratégicas e táticas , colaborando com tempos de engenharia e produtos;
- Construir pipelines ETL complexos utilizando Kafka, KSQL e Logstash , garantindo entrada e transformação eficiente de dados;
- Desenvolver e manter processos de CI/CD utilizando Jenkins ou Azure DevOps para automação de implantações;
- Aplicar boas práticas de infraestrutura como código (IaC) para provisionamento e manutenção de recursos de dados;
- Trabalhar na configuração e instalação de infraestruturas para processamento de Big Data , garantindo escalabilidade e alta disponibilidade;
- Avaliar e implementar planos de recuperação de desastres para garantir a continuidade operacional;
- Apoiar o tempo no brainstorming, descoberta e criação de POCs para validação de novas soluções;
- Participar nas decisões de tecnologia, ajudando na definição da pilha tecnológica, arquitetura da solução e infraestrutura.
Experiência mínima
- 5+ anos de experiência com engenharia e ciência de dados, pipelines ETL e Big Data;
- Conhecimento avançado em Kafka, KSQL, Logstash e ElasticSearch;
- Experiência com monitoramento de infraestrutura utilizando Kibana ou Grafana;
- Experiência com infraestrutura como código (IaC) e automação de processos (CI/CD) com Jenkins ou Azure DevOps;
- Conhecimento em Azure Cloud para gerenciamento de dados, otimização de computação e escalabilidade;
- Experiência com manutenção e gerenciamento de infraestrutura on-premises (Bare-metal).
Requisitos essenciais
✅ ETL com Kafka, KSQL, Logstash e ElasticSearch: Processamento e transformação de dados em grande escala;
✅ CI/CD com Jenkins ou Azure DevOps : Automação de deploys e versionamento de código;
✅ Monitoramento de infraestrutura com Kibana/Grafana: Observabilidade e alertas para otimização do ambiente;
✅ Criação e otimização de Data Lakes: Estrutura eficiente para armazenamento e processamento de dados;
✅ Infraestrutura como Código (IaC): Provisionamento e automação de recursos;
✅ Gerenciamento de infraestrutura on-premises (Bare-metal): Configuração e manutenção de servidores físicos;
✅ Planejamento e execução de estratégias de recuperação de desastres.
Requisitos desejáveis
➕ Experiência com Conector Debezium para captura de mudanças de dados (CDC);
➕ Experiência prévia em liderança técnica e gestão de equipes;
➕ Conhecimento avançado em arquiteturas de Data Lake para organização e governança de dados;
➕ Habilidade com stack Hadoop/Spark para processamento de grandes volumes de dados;
➕ Experiência em infraestrutura híbrida (Cloud e On-Premises).
📩 Como se candidatar
Cadastre-se diretamente em no formulário abaixo.
🚀 Venha fazer parte do nosso time e construir soluções inovadoras!