Stelle für eine*n Data Engineer bei Wave Canada

last updated February 9, 2026 5:06 UTC

Wave HQ

HQ: Hybrid

more jobs in this category:

  • -> Website & App Tester @ PingPong
  • -> Entry Level Content Writer @ Jerry
  • -> Code Challenge Reviewer - Review Code In Your Spare Time - £50 Per Hour @ Geektastic
  • -> Frontend Developer (React) @ Cake
  • -> Frontend Engineer @ Torc

Bei Wave befähigen wir kleine Unternehmen dazu, erfolgreich zu sein, damit unsere Gemeinschaften florieren können. Unser Arbeitsplatz ist voller Kreativität und Energie, und unabhängig davon, wo oder wie du am besten arbeitest, erhältst du die Werkzeuge und Unterstützung, die du brauchst. Erfolg bedeutet hier, mutig zu sein, schnell zu lernen und Wissen offen zu teilen.

Als Data Engineer, der dem Manager of Data Engineering berichtet, entwickelst du Tools und Infrastruktur, die die Teams für Data Products sowie Insights & Innovation und die gesamte Organisation unterstützen.

Wir suchen eine neugierige, engagierte selbstständige Person, die komplexe Herausforderungen liebt und mehrere Bereiche und Stakeholder gleichzeitig managen kann. Diese technisch starke Person arbeitet auf allen Ebenen des Data-&-AI-Teams und kooperiert mit Engineering-Teams, um Datenlösungen zu entwickeln, unsere Dateninfrastruktur auszubauen und Waves Transformation zu einer datenfokussierten Organisation voranzutreiben.

Diese Position eignet sich ideal für jemanden mit Erfahrung in komplexen Produktumgebungen. Starke Kommunikationsfähigkeiten sind entscheidend, um die Lücke zwischen technischen und nichttechnischen Zielgruppen mit unterschiedlichen Datenkompetenzen zu überbrücken.

So machst du einen Unterschied:
– Du bist ein Builder: Du entwirfst, entwickelst und implementierst Komponenten einer modernen Datenplattform, einschließlich CDC-Dateningestion mit Debezium und Kafka, eines zentralisierten, Hudi-basierten Data Lakes sowie verschiedener Batch-, inkrementeller und Streaming-Pipelines.
– Du sorgst für Kontinuität und Modernisierung: Du wartest und verbesserst das Amazon-Redshift-Warehouse und bestehende Python-ELT-Pipelines und leitest gleichzeitig den Übergang zu einer Databricks- und dbt-basierten Analyseumgebung.
– Du balancierst Innovation und operative Exzellenz: Du baust skalierbare, zuverlässige und kosteneffiziente Datensysteme auf und verbesserst gleichzeitig Observability, Performance und Stabilität sowohl auf Legacy- als auch auf neuen Plattformen.
– Du arbeitest kollaborativ für Ergebnisse: Du arbeitest mit funktionsübergreifenden Partnern zusammen, um Dateninfrastruktur und Pipelines zu erstellen, die Analytics-, Machine-Learning- und GenAI-Anwendungsfälle unterstützen, sodass Daten korrekt und rechtzeitig bereitgestellt werden.
– Du gehst mit Unklarheit um und übernimmst Verantwortung: Du arbeitest eigenständig, identifizierst Verbesserungen an Pipelines und Workflows und setzt sie unter hohem Zeitdruck und wechselnden Anforderungen um.
– Du hältst die Plattform stabil: Du reagierst auf PagerDuty-Alarme, behebst Probleme und verbesserst proaktiv Monitoring und Alerting, um Vorfälle zu reduzieren und hohe Verfügbarkeit sicherzustellen.
– Du kommunizierst gut: Du gibst technische Anleitung, erklärst komplexe Konzepte klar und hörst aufmerksam zu, um Vertrauen aufzubauen und Probleme zu lösen.
– Du denkst an den Endnutzer: Du bewertest bestehende Systeme, verbesserst die Datenzugänglichkeit und entwickelst pragmatische Lösungen, die internen Teams helfen, Erkenntnisse zu gewinnen und das Kundenerlebnis zu verbessern.

Du bist hier erfolgreich, wenn du Folgendes mitbringst:
– Expertise im Data Engineering: 3+ Jahre Erfahrung im Aufbau von Pipelines und der Arbeit mit modernen, sicheren Daten-Stacks, einschließlich CDC-Streaming-Ingestion (z. B. Debezium) in Warehouses für AI/ML-Anwendungsfälle.
– Erfahrung mit AWS Cloud: Mindestens 3 Jahre Erfahrung mit AWS-Infrastruktur wie Kafka (MSK), Spark/AWS Glue und Terraform für IaC.
– Starke SQL- und Datenmodellierungskenntnisse: Tiefes Wissen in SQL und Datenmodellierung für OLTP- und OLAP-Systeme.
– Erfahrung mit Databricks: Vorherige Erfahrung in einer produktiven Databricks-Umgebung ist ein großer Pluspunkt.
– Starke Programmierfähigkeiten: Nachweislich wartbaren, hochwertigen Code in Python, SQL und dbt schreiben und überprüfen können sowie bei Bedarf Drittanbieter-Frameworks nutzen.
– Erfahrung mit Data Lakes: Erfahrung im Aufbau von S3-basierten Data Lakes mit Apache Hudi und Formaten wie Parquet, Avro, JSON und CSV.
– Erfahrung mit CI/CD: Fähigkeit zur Entwicklung und Bereitstellung von Datenpipelines unter Anwendung von CI/CD-Best Practices.

Bonus-Punkte für:
– Kenntnisse in Data Governance, einschließlich Datenqualität, Lineage, Datenschutz und Erfahrung mit Data-Catalog-Tools.
– Vertrautheit mit Tools wie Stitch und Segment CDP zur Integration vielfältiger Datenquellen.
– Erfahrung mit Analytics- und ML-Tools wie Athena, Redshift oder SageMaker Feature Store.

Gehaltsspanne: 101.000 bis 113.000 USD jährlich. Die endgültige Vergütung hängt von Erfahrung, Expertise und Passung zur Rolle ab. Die meisten Neueinstellungen liegen im mittleren Bereich, wobei die höchsten Angebote Kandidaten mit außergewöhnlichen Fähigkeiten und unmittelbarem Einfluss vorbehalten sind.

Wir bieten außerdem:
– Bonusprogramm
– Vom Arbeitgeber finanzierte Leistungen
– Gesundheits- und Wellnesskonto
– Weiterbildungskonto
– Wellness-Tage
– Betriebsferien
– Wave Days (zusätzliche Urlaubstage im Sommer)
– Get A-Wave Programm (bis zu 90 Tage weltweit arbeiten)

Besuche unsere Website, um mehr über das Arbeiten bei Wave zu erfahren.

Wir schätzen vielfältige Perspektiven, und deine einzigartigen Erfahrungen stärken unsere Organisation. Wir begrüßen Kandidaten aller Hintergründe und freuen uns darauf, zu besprechen, wie du bei uns erfolgreich sein kannst.

Wave verpflichtet sich zu einem inklusiven und barrierefreien Bewerbungsprozess. Wenn du Unterstützung benötigst, schreibe an careers@waveapps.com und wir finden gemeinsam eine Lösung.

Bitte beachte, dass Interviews KI-gestützte Transkription enthalten können, damit Interviewer vollständig präsent bleiben können.

Diese Ausschreibung entspricht einer aktiven, offenen Position.

Apply info ->

To apply for this job, please visit jobs.lever.co

Shopping Cart
There are no products in the cart!
Total
 0.00
0