Vertrag für einen erfahrenen Databricks‑Data‑Engineer

last updated February 4, 2026 9:14 UTC

CI&T

HQ: Hybrid

more jobs in this category:

  • -> Transcriptionist @ Literably
  • -> Remote Freelance Writers for Entry-Level Blogging Work @ We Write Blog Posts
  • -> English Transcript Editor @ 3Play Media
  • -> Data Entry Operator @ Tower Health
  • -> Data Entry specialist @ RMJ4U

Wir sind auf technologische Transformation spezialisiert und verbinden menschliche Expertise mit KI, um skalierbare Technologielösungen bereitzustellen. Mit mehr als 8.000 CI&T‑Teammitgliedern weltweit haben wir in unserer 30‑jährigen Geschichte mit über 1.000 Kunden zusammengearbeitet. Künstliche Intelligenz ist bereits ein fester Bestandteil unserer täglichen Arbeit.

Sofortiger Einstieg

Als Senior Data Engineer übernehmen Sie die Führung bei der Konzeption und Entwicklung zuverlässiger Datenpipelines und integrieren sowie transformieren Daten aus unterschiedlichsten Quellen wie APIs, relationalen Datenbanken und Dateisystemen. In enger Zusammenarbeit mit Geschäfts- und Analyseteams liefern Sie hochwertige Lösungen, die die strategischen Ziele der Organisation unterstützen. Ihre Rolle ist entscheidend, um die Qualität, Zuverlässigkeit, Sicherheit und Governance aller eingehenden Daten sicherzustellen und unsere Mission von Zusammenarbeit, Innovation und Transformation zu fördern.

Zentrale Aufgaben:
• Entwicklung und Pflege von Datenpipelines
• Integration von Daten aus verschiedenen Quellen (APIs, relationale Datenbanken, Dateien usw.)
• Zusammenarbeit mit Geschäfts- und Analyseteams zur Erhebung und Klärung von Datenanforderungen
• Sicherstellung, dass eingehende Daten den Qualitäts-, Zuverlässigkeits-, Sicherheits- und Governance‑Standards entsprechen
• Anwendung moderner DataOps‑Praktiken wie Versionskontrolle, Datentests und CI/CD
• Dokumentation von Data‑Engineering‑Prozessen und Best Practices

Erforderliche Fähigkeiten und Qualifikationen:
Unverzichtbare Fähigkeiten:
• Nachgewiesene Erfahrung in der Erstellung und Verwaltung groß angelegter Datenpipelines in Databricks (PySpark, Delta Lake, SQL)
• Starke Python‑ und SQL‑Kenntnisse für Datenverarbeitung und ‑transformation
• Fundiertes Verständnis von ETL/ELT‑Prozessen, Data Warehousing und verteilter Datenverarbeitung
• Praxiskenntnisse in DataOps‑Methoden, einschließlich Versionskontrolle (Git), CI/CD, automatisierten Tests und Infrastructure‑as‑Code
• Kenntnisse über Cloud‑Plattformen (AWS, Azure oder GCP) und deren Datendienste
• Ausgeprägte analytische Fähigkeiten sowie die Fähigkeit, Probleme in den Bereichen Leistung, Skalierbarkeit und Zuverlässigkeit zu lösen
• Sicherer Umgang mit Git

Zusammenarbeit ist unsere Stärke, Vielfalt verbindet uns und Exzellenz leitet unsere Arbeit. Wir schätzen unterschiedliche Identitäten und Lebenserfahrungen und fördern ein integratives, sicheres und faires Umfeld. Wir ermutigen ausdrücklich Bewerberinnen und Bewerber aus diversen und unterrepräsentierten Gruppen, sich zu bewerben.

Apply info ->

To find out more about this job, please visit this link

Shopping Cart
There are no products in the cart!
Total
 0.00
0