Contrat de Senior Data Engineer chez Databricks

last updated February 4, 2026 9:13 UTC

CI&T

HQ: Hybrid

more jobs in this category:

  • -> Transcriptionist @ Literably
  • -> Remote Freelance Writers for Entry-Level Blogging Work @ We Write Blog Posts
  • -> English Transcript Editor @ 3Play Media
  • -> Data Entry Operator @ Tower Health
  • -> Data Entry specialist @ RMJ4U

Nous sommes spécialisés dans la transformation technologique, combinant l’expertise humaine et l’IA pour offrir des solutions technologiques évolutives. Avec plus de 8 000 collaborateurs CI&T dans le monde, nous avons accompagné plus de 1 000 clients au cours de nos 30 années d’existence. L’intelligence artificielle fait déjà partie intégrante de notre travail quotidien.

Démarrage immédiat

En tant que Data Engineer Senior, vous serez responsable de concevoir et développer des pipelines de données fiables, en intégrant et transformant des données issues de nombreuses sources telles que des API, des bases de données relationnelles et des systèmes de fichiers. En collaboration étroite avec les équipes métier et analytics, vous fournirez des solutions de haute qualité soutenant les objectifs stratégiques de l’organisation. Votre rôle sera essentiel pour garantir la qualité, la fiabilité, la sécurité et la gouvernance de toutes les données ingérées, contribuant à notre mission de Collaboration, d’Innovation et de Transformation.

Responsabilités principales:
Développer et maintenir des pipelines de données.
Intégrer des données provenant de multiples sources (API, bases relationnelles, fichiers, etc.).
Collaborer avec les équipes métier et analytics pour recueillir et comprendre les besoins en données.
Garantir que les données ingérées répondent aux exigences de qualité, fiabilité, sécurité et gouvernance.
Appliquer les pratiques DataOps modernes telles que le contrôle de version, les tests de données et le CI/CD.
Documenter les processus et bonnes pratiques d’ingénierie des données.

Compétences et qualifications requises:
Compétences indispensables:
Expérience démontrée dans la création et la gestion de pipelines de données à grande échelle avec Databricks (PySpark, Delta Lake, SQL).
Excellente maîtrise de Python et SQL pour la transformation et le traitement des données.
Solide compréhension des processus ETL/ELT, de l’entreposage de données et du traitement distribué.
Expérience pratique des méthodologies DataOps, incluant le contrôle de version (Git), le CI/CD, les tests automatisés et l’infrastructure-as-code.
Connaissance des plateformes cloud (AWS, Azure ou GCP) et de leurs services de données.
Solides compétences analytiques avec capacité à résoudre des problèmes liés à la performance, à la scalabilité et à la fiabilité.
Maîtrise de Git.

La collaboration est notre force, la diversité nous rassemble et l’excellence guide notre travail. Nous valorisons les identités et parcours de vie variés, en favorisant un environnement inclusif, sûr et équitable. Nous encourageons les candidatures issues de groupes diversifiés et sous-représentés.

Apply info ->

To find out more about this job, please visit this link

Shopping Cart
There are no products in the cart!
Total
 0.00
0