Sobre a vaga
Estamos em busca de um Analista de Dados Pleno para atuar na proteção, análise e modelagem de dados , garantindo qualidade, governança e insights estratégicos. O profissional será responsável pela criação de dashboards, otimização de consultas SQL, desenvolvimento de processos ETL e análise estatística, apoiando as decisões de negócio com base em dados.
Se você tem experiência com bancos de dados SQL e NoSQL, ferramentas de BI, ETL, Python/R e governança de dados, essa é a oportunidade ideal para você!
Principais responsabilidades
Banco de Dados e SQL
- Trabalhar com bancos de dados relacionais (MySQL, PostgreSQL, SQL Server) e NoSQL (MongoDB, Cassandra) para armazenamento e análise de informações;
- Criar e otimizar consultas SQL complexos para extração e manipulação eficiente de dados;
- Realizar modelagem de dados e projetar esquemas de banco de dados para garantir escalabilidade e organização.
Ferramentas de Business Intelligence (BI)
- Desenvolver dashboards interativos e relatórios analíticos utilizando Power BI, Tableau, Looker ou QlikView;
- Criar visualizações gráficas, análises e estratégias, fornecendo insights para tomada de decisão;
- Trabalhar na automatização e otimização de relatórios.
ETL e Processamento de Dados
- Implementar e gerenciar processos de ETL utilizando Talend, Apache Nifi, Pentaho ou SSIS ;
- Criar pipelines de dados para integração, transformação e carregamento eficiente de informações;
- Trabalhar na detecção, limpeza e padronização de dados para análises avançadas.
Linguagens de Programação e Scripts
- Utilização Python ou R para manipulação, visualização e análise de dados;
- Trabalhar com bibliotecas como Pandas, NumPy, Matplotlib e SciPy para modelagem de dados;
- Implementar scripts de automação para tarefas analíticas e relatórios periódicos.
Análise Estatística e Matemática
- Aplicar métodos estatísticos e preditivos para gerar insights estratégicos;
- Trabalhar com análise de regressão, clusterização, séries temporais e ANOVA;
- Criar relatórios baseados em evidências para aprimorar processos e decisões.
Computação em Nuvem e Big Data
- Trabalhar com plataformas de computação em nuvem (AWS, Google Cloud, Azure) para processamento de dados;
- Utilização de ferramentas de Big Data como Apache Hadoop, Apache Spark, Databricks e Redshift para análise de grandes volumes de informações;
- Garantir eficiência e escalabilidade no processamento de dados massivos.
Governança de Dados e Qualidade de Dados
- Aplicar práticas de governança de dados , garantindo segurança, integridade e conformidade;
- identificar e corrigir problemas de qualidade dos dados , promovendo padronização e confiabilidade;
- Criar mecanismos de auditoria e validação de dados.
Experiência mínima
- 3+ anos de experiência na área de análise de dados, BI ou engenharia de dados;
- Experiência com bancos de dados relacionais (PostgreSQL, MySQL, SQL Server) e NoSQL (MongoDB, Cassandra);
- Experiência com ferramentas de BI (Power BI, Tableau, Looker, QlikView) para criação de dashboards e relatórios;
- Vivência com ETL e pipelines de dados (Talend, Apache Nifi, Pentaho, SSIS) para remoção e transformação de dados;
- Conhecimento em Python ou R para análise e manipulação de dados;
- Experiência com estatística aplicada e modelagem de dados;
- Familiaridade com Big Data e Cloud Computing (AWS, GCP, Azure).
Requisitos essenciais
✅ Bancos de Dados (SQL e NoSQL): Modelagem, remoção e otimização de consultas;
✅ Ferramentas de BI (Power BI, Tableau, Looker, QlikView): Criação de dashboards e relatórios;
✅ ETL e Pipelines de Dados: Desenvolvimento e automação de processos de transformação de dados;
✅ Linguagens de Programação (Python ou R): Manipulação, visualização e modelagem preditiva;
✅ Análise Estatística e Modelos Preditivos: Técnicas para interpretação e geração de insights estratégicos;
✅ Cloud Computing e Big Data: Processamento e escalabilidade de grandes volumes de dados;
✅ Governança e Qualidade de Dados: Garantia da integridade e conformidade das informações.
Requisitos desejáveis
➕ Certificações em Power BI, Tableau, Google Analytics, AWS ou plataformas de BI;
➕ Experiência com metodologias ágeis (Scrum, Kanban);
➕ Conhecimento avançado em bancos de dados NoSQL (Cassandra, HBase, MongoDB);
➕ Familiaridade com ferramentas de Machine Learning (Scikit-learn, TensorFlow, Keras, Apache Mahout).
📩 Como se candidatar
Cadastre-se diretamente em no formulário abaixo.
🚀 Venha fazer parte do nosso time e construir soluções inovadoras!