Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.
Buscamos uma liderança sênior, hands-on, para integrar nosso time de dados CI&T e liderá-lo na construção de um ecossistema de dados moderno, orientado a produto e a plataforma. Você atuará diretamente com a média e alta gestão, traduzindo necessidades de negócio em arquiteturas e capacidades reutilizáveis, combinando governança como plataforma, Policy-as-Code, Lakehouse/Event-Driven e uso de GenAI para acelerar Data Discovery, Data Quality, Compliance e adoção.
Responsabilidades
– Liderar e desenvolver o time, promovendo boas práticas de engenharia e cultura de Data as a Product (domain ownership, SLOs/SLIs).
– Projetar e implementar pipelines de dados complexos (batch e streaming), com automação, orquestração e otimização de ETL/ELT.
– Desenvolver transformações em Python/PySpark e SQL, com testes automatizados (PyTest) e padrões de engenharia.
– Assegurar Data Quality de ponta a ponta: testes como código, SLOs/SLIs de datasets, alerta proativo e automação de remediação.
– Desenhar o blueprint de plataforma: Metadata-first, Lineage, Policy-as-Code, Data Catalog/Discovery, Semantic Layer, observabilidade.
– Incorporar GenAI no fluxo: copilotos para catálogo e documentação, Sensitive Data Classification (PII), geração assistida de políticas e testes, Change Intelligence (impact summaries).
– Colaborar com equipes multidisciplinares (dados, produto, segurança, compliance, negócio), traduzindo requisitos de negócio em soluções técnicas escaláveis e mensuráveis.
– Conduzir decisões de arquitetura (Lakehouse, Delta/Parquet, real-time com Pub/Sub/Kafka, microservices) com foco em escalabilidade, custo e segurança.
– Operar mecanismos de Compliance “always-on” (LGPD/PII): classificação, mascaramento, access control contextual e rastreabilidade ponta a ponta.
Integrar a plataforma com o ecossistema corporativo (APIs, eventos, legados/SaaS), garantindo performance e confiabilidade.
– Implantar versionamento, CI/CD e IaC (Git/Azure DevOps) para reprodutibilidade e menor time-to-data.
– Interagir com a alta gestão, apresentar roadmaps, riscos e resultados; definir e acompanhar OKRs/métricas (adoção, lead time, incidentes, risco residual).
– Evangelizar e gerir a mudança para aumentar adoção e valor de negócio.
Experiências necessárias
– Experiência sólida construindo pipelines de dados com Python, PyTest, PySpark e SQL.
– Experiência sólida em Google Cloud Platform (BigQuery, Dataproc, Dataflow, Pub/Sub, Composer/Airflow, IAM).
– Experiência sólida com ferramentas de orquestração (Airflow/Composer, Dagster, Prefect).
– Experiência com Databricks em pipelines complexos (Delta Lake, Jobs/Workflows, Unity Catalog).
– Vivência com bancos relacionais e não relacionais, incluindo schema design e query optimization.
– Experiência em arquitetura de microservices e integrações corporativas (REST/GraphQL, event-driven).
– Proficiência em Git/Azure DevOps para versionamento, CI/CD e colaboração.
– Vivência prática em Data Governance operacional: Metadata, Lineage, Data Catalog/Discovery, Data Quality, Security & Access.
– Experiência liderando times técnicos e interagindo com executivos, com forte comunicação e influência.
– Sólida compreensão de Security, Privacy e Compliance (LGPD) aplicados a dados.
– Capacidade de decisões de arquitetura com foco em custo/eficiência (FinOps), escalabilidade e confiabilidade.
Desejável
– Graduação em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas correlatas.
– Experiência prévia sênior em engenharia de dados e projetos com GCP.
– Certificações: Google Professional Data Engineer/Cloud Architect; Databricks (Data Engineer Professional); Airflow/Dagster; segurança.
– Ferramentas de Data Quality/Observability (Great Expectations, Soda, Monte Carlo) e de Metadados/Catálogo (DataHub, Collibra, Atlan).
– Vivência com Policy-as-Code e governança (OPA, Ranger, BigQuery policies, DLP, mascaramento/tokenização).
– Conhecimento de Semantic Layer e métricas (Looker semantic model, dbt/metrics).
– Experiência com GenAI/ML em dados (Vertex AI, embeddings/RAG para Discovery, assistentes internos).
– Experiência em Data Mesh e estratégias de dados como produto em grandes organizações.
MidSenior
LI-RW1
Nossos benefícios:
– Plano de saúde e odontológico;
– Vale alimentação e refeição;
– Auxílio-creche;
– Licença parental estendida;
– Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass) TotalPass;
– Participação nos Lucros e Resultados (PLR);
– Seguro de Vida;
– Plataforma de aprendizagem contínua (CI&T University);
– Clube de descontos;
– Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar;
– Curso gestante e parentalidade responsável;
– Parceria com plataformas de cursos online;
– Plataforma para aprendizagem de idiomas;
– E muitos outros
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo
Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.
Apply info ->
To find out more about this job, please visit this link

