A Keyrus acredita na diversidade e na inclusão. Encorajamos a todos a participarem em nosso processo de contratação, não importando o gênero, idade, raça, religião. Não permitimos nenhum tipo de discriminação. Isto é reforçado no processo de contratação e vivido dessa forma na empresa.
Sabemos que grandes resultados só são alcançados com uma grande equipe, por isso procuramos pessoas talentosas e apaixonadas, com desejo de crescer profissionalmente e criar uma trajetória de carreira conosco.
Papéis e Responsabilidades:
Desenvolver e manter pipelines de dados robustos, escaláveis e de alto desempenho, utilizando tecnologias como Azure Data Factory, PySpark, Python, SQL e bancos de dados NoSQL.
Orquestrar workflows de dados seguindo princípios de DAG (Directed Acyclic Graph), garantindo eficiência e confiabilidade.
Criar e otimizar tabelas e modelos de dados, aplicando técnicas como indexação, particionamento e modelos dimensionais (Star Schema).
Garantir a qualidade e integridade dos dados por meio de testes, auditorias e validação contra regras de negócios.
Trabalhar em estreita colaboração com equipes de negócios para entender necessidades analíticas e traduzir requisitos em soluções de dados eficazes.
Implementar processos de governança de dados, assegurando conformidade com LGPD e GDPR (criptografia de PII, controle de acessos, auditoria de dados, etc.).
Monitorar e otimizar o desempenho de processos ETL/ELT e armazenamento de dados em Data Lakes e Data Warehouses.
Aplicar princípios de DevOps e CI/CD para automação de testes, versionamento de código e implantação de pipelines.
Participar de projetos internacionais e colaborar com times globais para garantir a padronização das melhores práticas em engenharia de dados.
Qualificações Essenciais:
Mínimo de 2 anos de experiência no desenvolvimento e gerenciamento de processos ETL/ELT.
Sólidos conhecimentos em SQL, incluindo consultas complexas e otimização de performance.
Experiência com modelagem de dados analítica e OLTP.
Experiência em pelo menos uma das linguagens: Python, PySpark ou C#.
Conhecimento em Cloud Computing (Azure, AWS ou GCP) e suas ferramentas de armazenamento e processamento de dados.
Experiência com Spark para processamento distribuído de dados.
Entendimento de conceitos de Machine Learning aplicados a análise de dados.
Experiência com APIs REST, OAuth e integração de dados em tempo real.
Conhecimento em ferramentas de versionamento de código e CI/CD (Azure DevOps, Git, etc.).
Familiaridade com ferramentas de BI (Power BI, Tableau, Looker).
Habilidade para trabalhar em ambientes ágeis e times internacionais, com boa comunicação entre áreas técnicas e de negócios.
Fluência em inglês.
Nossa missão é Auxiliar as empresas a extrair todo o potencial de Dados e Digital objetivando aumentar seu desempenho, ajudando na transformação, gerando novas alavancas de crescimento e competitividade.
Vem fazer parte do Time Keyrus!
Se você quiser saber mais sobre nós, convidamos você a visitar nosso site: http://www.keyrus.com/br/
Desejamos boa sorte! 😊🚀