top of page

Engenheiro de Dados Sênior

São Paulo, Brazil

Job Type

Tempo Integral

About the Role

A Cognitivo.ai é a maior plataforma de Inteligência de Dados do Brasil e ajudamos empresas de todos os setores a solucionar desafios de negócios através de dados. Montamos times personalizados a partir dos melhores profissionais de dados do país, que compõem a nossa rede de experts, e entregamos soluções em 3 grandes frentes: Engenharia de Dados, BI e Analytics, e Inteligência Artificial.

requirements

Buscamos um Engenheiro de Dados Sênior, com disponibilidade para atuar 40h semanais, que esteja ansioso para fazer parte de uma equipe dinâmica e inovadora. Se você possui formação em Ciências da Computação, Engenharia da Computação, Análise e Desenvolvimento de Sistemas ou áreas afins. Este profissional fará parte dos nossos projetos, conhecerá os desafios da operação, conduzirá melhorias nos processos e entregas e aprenderá sobre as oportunidades e dores da área de Data em vários setores do mercado.


Responsabilidades:

  • Implementação de ambientes de Data Lakes;

  • Auxiliar no projeto, implementação e manutenção de pipelines de dados escaláveis e eficientes na AWS;

  • Implementação de soluções de engenharia de dados;

  • Auxiliar na criação de soluções reutilizáveis que habilitem os times a captura, processamento e disponibilização de dados;

  • Manutenção e suporte da Plataforma de Dados da Cognitivo, assegurando sua operação eficiente nos ambientes dos clientes;

  • Impulsionar a qualidade de dados e governança dos projetos;

  • Administrar a infraestrutura da plataforma de dados, garantindo sua robustez e escalabilidade;

  • Auxiliar nas rotinas de sustentação e manutenção dos ambientes de dados, garantindo continuidade e eficiência operacional.


Requisitos técnicos:

  • Domínio na plataforma AWS, incluindo serviços como S3, EC2, EMR, Glue, Athena, VPC, DMS, EKS, SNS, SQS, Lambda, etc;

  • Conhecimentos com Infraestrutura como código (IaC) - Terraform;

  • Conhecimentos em linguagem Python;

  • Conhecimentos com Apache Airflow, Apache Spark.

  • Compreensão sobre arquitetura de dados, integração e ETL/ELT;

  • Conhecimento em ferramentas de versionamento de código, como Git;

  • Capacidade de diagnosticar e resolver problemas em ambientes de dados da AWS;

  • Conhecimentos em containers (Docker) e ambiente Linux.


Diferenciais:

  • Conhecimentos em práticas de CI/CD (Git Actions);

  • Experiências em projetos de MLOps, deploy e operacionalização de modelos de ML;

  • Conhecimentos sobre data observability, DataOps;

  • Experiências em projetos com Google Cloud (GCP) e Azure;

  • Experiências com Engenharia de Software;

  • Participação em projetos de implementação e manutenção de pipelines de dados modernos utilizando o Airbyte, DBT e outras ferramentas open source;

  • Experiência em gerenciamento de clusters Kubernetes na AWS usando Amazon EKS (Elastic Kubernetes Service), bem como Helm, ArgoCD.

Venha trabalhar conosco
Upload de currículo

Muito obrigado(a)!

bottom of page