Rôle d’ingénieur·e des données chez Wave Canada

last updated February 9, 2026 18:54 UTC

Wave HQ

HQ: Hybrid

more jobs in this category:

  • -> Website & App Tester @ PingPong
  • -> Entry Level Content Writer @ Jerry
  • -> Code Challenge Reviewer - Review Code In Your Spare Time - £50 Per Hour @ Geektastic
  • -> Frontend Developer (React) @ Cake
  • -> Frontend Engineer @ Torc

Chez Wave, nous donnons aux petites entreprises les moyens de réussir afin que nos communautés puissent prospérer. Notre environnement de travail est rempli de créativité et d’énergie, et peu importe où ou comment vous travaillez le mieux, vous disposerez des outils et du soutien nécessaires. Réussir ici signifie être audacieux, apprendre rapidement et partager ses connaissances ouvertement.

En tant qu’ingénieur·e de données relevant du gestionnaire de l’ingénierie des données, vous construirez des outils et des infrastructures qui soutiennent les équipes Data Products, Insights & Innovation, ainsi que l’ensemble de l’organisation.

Nous recherchons une personne curieuse, motivée et autonome, qui aime relever des défis complexes et gérer de multiples domaines et parties prenantes. Cette personne, techniquement solide, collaborera avec tous les niveaux de l’équipe Data & IA et s’associera aux équipes d’ingénierie pour développer des solutions de données, étendre notre infrastructure et contribuer à transformer Wave en une organisation axée sur les données.

Ce poste convient parfaitement à quelqu’un ayant de l’expérience dans des environnements produits complexes. D’excellentes compétences en communication sont essentielles pour faire le lien entre les audiences techniques et non techniques, à différents niveaux de maturité en matière de données.

Voici comment vous créez de l’impact :
– Vous êtes un·e bâtisseur·se : Concevoir, créer et déployer des composants d’une plateforme de données moderne, incluant l’ingestion CDC avec Debezium et Kafka, un data lake centralisé basé sur Hudi, ainsi que diverses pipelines batch, incrémentielles et en streaming.
– Vous assurez la continuité tout en modernisant : Maintenir et améliorer l’entrepôt Amazon Redshift et les pipelines Python ELT existants tout en guidant la transition vers un environnement analytique basé sur Databricks et dbt.
– Vous alliez innovation et excellence opérationnelle : Construire des systèmes de données évolutifs, fiables et rentables tout en améliorant l’observabilité, la performance et la stabilité des plateformes légales et nouvelles.
– Vous collaborez pour obtenir des résultats : Travailler avec des partenaires interfonctionnels pour créer une infrastructure et des pipelines de données soutenant l’analytique, l’apprentissage automatique et les cas d’usage GenAI, en garantissant une donnée exacte et livrée à temps.
– Vous gérez l’ambiguïté et prenez en charge vos responsabilités : Travailler de manière autonome pour identifier et mettre en œuvre des améliorations aux pipelines et aux flux de travail, sous contrainte de délais serrés et d’exigences changeantes.
– Vous maintenez la plateforme stable : Répondre aux alertes PagerDuty, résoudre les problèmes et améliorer de manière proactive la surveillance et l’alerte pour réduire les incidents et assurer une haute disponibilité.
– Vous communiquez efficacement : Offrir des conseils techniques, expliquer clairement des concepts complexes et écouter attentivement pour instaurer la confiance et résoudre les problèmes.
– Vous pensez à l’utilisateur·rice : Évaluer les systèmes existants, améliorer l’accessibilité aux données et créer des solutions concrètes aidant les équipes internes à générer des insights et à améliorer l’expérience client.

Vous vous épanouirez ici si vous avez :
– Une expertise en ingénierie des données : Plus de 3 ans d’expérience dans la création de pipelines et le travail avec des environnements de données modernes et sécurisés, incluant l’ingestion CDC (ex. Debezium) vers des entrepôts soutenant l’IA/ML.
– Une expérience du cloud AWS : Au moins 3 ans d’expérience avec des infrastructures AWS telles que Kafka (MSK), Spark/AWS Glue et Terraform pour l’IaC.
– De solides compétences en SQL et en modélisation de données : Une connaissance approfondie de SQL et de la modélisation pour systèmes OLTP et OLAP.
– Une expérience Databricks : Une expérience dans un environnement Databricks en production est un atout important.
– De fortes compétences en programmation : Capacité démontrée à écrire et réviser du code maintenable et de haute qualité en Python, SQL et dbt, et à utiliser des frameworks tiers au besoin.
– Une expérience dans le développement de data lakes : Expérience dans la création de data lakes sur S3 à l’aide d’Apache Hudi et de formats tels que Parquet, Avro, JSON et CSV.
– Une expérience CI/CD : Compétences dans le développement et le déploiement de pipelines de données selon les meilleures pratiques CI/CD.

Atouts supplémentaires :
– Connaissances en gouvernance des données, incluant la qualité, la traçabilité, la confidentialité, et expérience des outils de catalogage de données.
– Familiarité avec des outils comme Stitch et Segment CDP pour intégrer diverses sources de données.
– Expérience avec des outils analytiques et ML tels que Athena, Redshift ou SageMaker Feature Store.

Échelle salariale : de 101 000 à 113 000 USD par an. La rémunération finale dépend de l’expérience, de l’expertise et de l’adéquation au rôle. La plupart des embauches se situent au milieu de l’échelle, les offres les plus élevées étant réservées aux personnes ayant des compétences exceptionnelles et un impact immédiat.

Nous offrons également :
– Programme de primes
– Avantages payés par l’employeur
– Compte Santé et mieux-être
– Compte de développement professionnel
– Journées bien‑être
– Fermeture des Fêtes
– Journées Wave (jours de congé supplémentaires l’été)
– Programme Get A-Wave (travaillez de n’importe où dans le monde jusqu’à 90 jours)

Visitez notre site pour en savoir plus sur le travail chez Wave.

Nous valorisons la diversité des perspectives, et votre expérience unique renforce notre organisation. Nous accueillons les candidatures de toutes origines et avons hâte de discuter de la manière dont vous pouvez vous épanouir ici.

Wave s’engage à offrir un processus d’embauche inclusif et accessible. Si vous avez besoin d’accommodements, écrivez à careers@waveapps.com et nous collaborerons pour répondre à vos besoins.

Veuillez noter que les entrevues peuvent inclure une transcription assistée par IA afin de permettre aux intervieweurs de rester pleinement engagés.

Cette offre reflète un poste actif et ouvert.

Apply info ->

To apply for this job, please visit jobs.lever.co

Shopping Cart
There are no products in the cart!
Total
 0.00
0