L’analyste principal des données est un professionnel expérimenté qui transforme des données complexes et transversales en informations claires et exploitables influençant les résultats opérationnels, tout en agissant comme partenaire consultatif. Ce rôle renforce la rigueur analytique, développe des solutions BI avancées, encadre les analystes juniors et collabore avec les équipes métier, techniques et de gouvernance pour améliorer la prise de décision et l’efficacité opérationnelle. Le travail repose sur l’analyse via Databricks, SQL, R, Power BI, Python et l’écosystème de données Azure.
À ce stade, nous ne considérons pas les candidats nécessitant un parrainage pour l’immigration, maintenant ou à l’avenir, pour travailler aux États‑Unis. Cela inclut notamment F1‑OPT, F1‑CPT, H‑1B, TN, L‑1 et J‑1.
Avantages
Nous offrons un ensemble complet d’avantages reflétant l’importance accordée à notre équipe, notamment :
– Congés payés, jours fériés et jour férié au choix
– Contribution au 401(k)
– Assurance vie
– Invalidité de courte durée
– Assurance santé, dentaire et vision
– Congés maternité et paternité
– Compte d’épargne santé (HSA)
– Comptes de dépenses flexibles (FSA) pour la santé et la garde d’enfants
Responsabilités du poste, sans s’y limiter :
– Diriger des projets analytiques à fort impact, de la définition du problème à la livraison ; évaluer la valeur, concevoir des analyses rigoureuses et présenter des recommandations aux partenaires et dirigeants
– Collaborer avec les responsables métiers pour identifier des opportunités et fournir des insights ; communiquer les résultats de manière claire
– Construire des produits analytiques utilisant Databricks, des outils BI et IA modernes et des pratiques Agile
– Appliquer des analyses avancées avec Python pour l’automatisation, la modélisation et l’intégration dans les workflows Databricks
– Concevoir et publier des jeux de données et tableaux de bord Power BI fiables respectant les normes d’utilisabilité et d’adoption
– Développer des workflows Databricks efficaces pour traiter de grands volumes de données, créer des features et automatiser les analyses récurrentes
– Créer des scripts Python pour l’automatisation et l’intégration avec Databricks et Azure
– Collaborer avec l’ingénierie des données pour des solutions évolutives
– Assurer la qualité des analyses grâce à la validation, la conception d’études et des pratiques de reproductibilité
– Définir et suivre des indicateurs clés ; améliorer la performance via des tableaux de bord et rapports opérationnels alignés aux objectifs métiers
– Démontrer de fortes compétences en data storytelling, raisonnement statistique et visualisation
– Travailler avec la gouvernance des données et la conformité pour garantir l’usage approprié des données sensibles et le respect des exigences de sécurité
– Soutenir la gestion des données et renforcer la culture data dans l’organisation
– Promouvoir l’adoption des produits data afin de maximiser leur valeur
– Se tenir informé des nouvelles méthodes et technologies analytiques pour une amélioration continue
Compétences et expérience requises
– Licence en data science, informatique, statistiques, économie ou discipline similaire
– 4 à 8+ années d’expérience analytique, dont au moins 3 en gestion de projets
– Succès avéré dans la livraison d’analyses dans des environnements complexes
– Expérience des données de santé ou capacité à s’adapter rapidement
– Solides compétences statistiques et financières, incluant conception d’études et business cases
– Expérience avec Azure Data Factory, ADLS et Synapse/Fabric, y compris sécurité et gouvernance
– Expérience Databricks avec Spark/SQL, notebooks, tâches, optimisation des performances et SQL Warehouses
– Compétences solides en SQL, notamment sur l’optimisation de grands volumes
– Maîtrise de R pour les analyses appliquées et workflows reproductibles
– Expérience Python pour la préparation, l’automatisation et l’intégration Azure/Databricks
– Expertise Power BI et Fabric : modélisation, DAX, Power Query et sécurité
– Expérience avec les systèmes de versioning Git et les bonnes pratiques de documentation
– Capacité à traduire des analyses complexes en messages clairs et recommandations
– Excellente gestion des parties prenantes et capacité d’influence
– Réussite démontrée sur des projets vastes ou ambigus
– Expérience des méthodologies Agile
– Excellentes compétences en data storytelling et visualisation
– Esprit orienté produit avec définition des problèmes, métriques de succès et adoption
– Forte autonomie, sens des responsabilités et jugement sûr
Compétences et expérience souhaitées
– Master dans un domaine connexe
– Certifications Databricks, Power BI ou plateformes cloud (Azure privilégié)
– Expérience avec des frameworks de machine learning et le MLOps
– Connaissance des outils de gouvernance des données et des normes de conformité
– Compréhension de fonctionnalités BI avancées comme Power BI Copilot et l’analytique assistée par IA
– Familiarité avec les données de santé, groupers et politiques
– Expérience en gestion de produit ou livraison de produits analytiques
Exigences physiques
– Mouvements répétitifs des poignets, mains ou doigts
– Travail principalement sédentaire nécessitant de longues périodes assises
– Capacités visuelles adéquates, incluant vision périphérique, perception de la profondeur et ajustement de la mise au point
Nous pouvons utiliser des outils d’IA pour soutenir certaines étapes du processus de recrutement, notamment l’examen des candidatures et l’analyse des CV. Ces outils assistent les recruteurs mais ne remplacent pas la décision humaine. Les décisions finales d’embauche sont prises par des personnes. Contactez‑nous pour toute question sur le traitement de vos données.
To apply for this job, please visit jobs.lever.co

