Das bringt der Job:
Wir wollen die Nutzbarkeit und den Impact unserer Datenplattform für real-time- und batch-Verarbeitung im Konzern maßgeblich steigern – mit deiner Expertise!.
Gemeinsam mit Deinen Kollegen übernimmst Du die Verantwortung für Konzeption und Umsetzung unserer neuen, hoch performanten und robusten Datenplattform in der Cloud für big, fast & smart Data.
Du verantwortest die Verarbeitung und Aufbereitung der Daten entlang ihres gesamten Lebenszyklus in unseren Data Pipelines der Datenstromverarbeitung.
Du arbeitest mit unterschiedlichsten Datasets und stellst eine hohe Konsistenz sowie Verfügbarkeit sicher und schaffst neue Einblicke zu unseren Kunden.
Du arbeitest mit unserem Data Science Kollegen im Team, um die (Daten-) Basis für neuartige Geschäfts- und Vorhersagemodelle bereitzustellen.
Das brauchen wir:
Große Datenmengen, deren performante Verarbeitung sowie technische Innovationen sind Deine Leidenschaft.
Du besitzt hervorragende konzeptionelle Fähigkeiten, eine schnelle Auffassungsgabe und hast viel Freude an der Arbeit im Team.
Du hast fundierte Kenntnisse in der Verarbeitung großer, heterogener Datenmengen mit verteilten Systemen wie z. B. Hadoop, einen sicheren Umgang mit relationalen Datenbanken sowie mindestens erste Kenntnisse mit Real-Time-Ansätzen.
Darüber hinaus verfügst du über erste Erfahrungen in der Entwicklung von skalierbaren Cloud-Lösungen auf Basis von AWS oder Google (z. B. Google Pub/Sub, Google Dataflow, o.ä).
Starke und bewährte Entwickler-Skills, bevorzugt in Java/Scala/Python und SQL sind für dich selbstverständlich.
Auf dein methodisches Vorgehen können wir uns verlassen: ein sauberes objekt-orientiertes oder funktionales Design, Tests und Monitorbarkeit zeichnet deine Software aus. Saubere Build- und Deploy-Prozesse sind Dir wichtig.
