CI&T

HQ: Hybrid

more jobs in this category:

  • -> Website & App Tester @ PingPong
  • -> Entry Level Content Writer @ Jerry
  • -> Code Challenge Reviewer - Review Code In Your Spare Time - £50 Per Hour @ Geektastic
  • -> Frontend Developer (React) @ Cake
  • -> Frontend Engineer @ Torc
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 6.500 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Estamos em busca de um Senior Data Developer altamente qualificado para se juntar à nossa equipe dinâmica de dados. Este papel é fundamental na concepção, construção e manutenção de pipelines de dados e infraestrutura escaláveis para suportar nossos processos de tomada de decisão baseados em dados.
Responsabilidades:
Projetar e Desenvolver Pipelines de Dados: Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.
– Integração e Processamento de Dados: Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.
Gerenciamento da Infraestrutura em Nuvem: Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta.
Desenvolvimento e Otimização de Código: Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.
Colaboração em Ambientes Ágeis: Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.
– Qualidade e Governança de Dados: Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.
– Otimização de Desempenho: Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.
– Mentoria e Liderança: Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria.
– Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.
Requisitos:
– Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.
– Proficiência avançada em Python para processamento de dados, scripting e automação.
– Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.
– Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.
– Expertise em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.
– Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.
– Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.
– Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.
– Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.
– Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.
– Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.
– Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.
Qualificações Preferenciais:
– Inglês: Nível intermediário a avançado.
– Experiência com tecnologias de conteinerização (por exemplo, Docker, Kubernetes) para implantar aplicações de dados.
– Conhecimento de frameworks de governança de dados e normas de conformidade (por exemplo, GDPR, CCPA).
– Familiaridade com ferramentas de grandes dados como Apache Spark, Hadoop ou Snowflake.
– Certificações em AWS ou Databricks.
#LI-AR2
Nossos benefícios:
– Plano de saúde e odontológico;
– Vale alimentação e refeição;
– Auxílio-creche;
– Licença paternagem estendida;
– Wellhub (Gympass)
– TotalPass
– PLR;
– Seguro de Vida;
– CI&T University;
– Clube de descontos;
– Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar.
– Curso gestante e paternagem responsável;
– Parceria com plataformas de cursos online;
– Plataforma para aprendizagem de idiomas;
– E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
A colaboração é nosso superpoder, diversidade nos une, e a excelência é nosso padrão.
Valorizamos a diversidade de identidades e experiências de vida, fomentando um ambiente de trabalho diverso, inclusivo e seguro. Incentivamos a candidatura de pessoas de comunidades diversas e sub-representadas às nossas vagas.
Apply info ->

To find out more about this job, please visit this link

Shopping Cart
There are no products in the cart!
Total
 0.00
0