NexWav logo

Data Scientist

NexWav

Longueuil, Canada

Share this job:
100 - 125 Posted:

Job Description

Job Description


Le Data Scientist est responsable de la conception, du développement et de la mise en production de modèles analytiques et d’intelligence artificielle permettant d’optimiser les décisions d’affaires. Il ou elle exploite des environnements infonuagiques modernes et la plateforme Databricks pour transformer des données brutes en insights exploitables et en solutions prédictives à impact mesurable.


Responsabilités principales



  • Concevoir, entraĂ®ner et valider des modèles de machine learning et d’analyse prĂ©dictive rĂ©pondant Ă  des problĂ©matiques d’affaires concrètes.

  • Utiliser Databricks pour orchestrer, documenter et industrialiser les flux de donnĂ©es et de modèles dans un environnement collaboratif.

  • Travailler en Ă©troite collaboration avec les Ă©quipes de Data Engineering, MLOps et Architecture Cloud pour assurer la performance, la fiabilitĂ© et la sĂ©curitĂ© des pipelines analytiques.

  • Participer Ă  la prĂ©paration et Ă  la qualitĂ© des donnĂ©es (nettoyage, feature engineering, enrichissement, transformation).

  • IntĂ©grer les modèles dans les environnements de production via des API ou des services cloud (Azure Machine Learning, AWS Sagemaker ou Ă©quivalents).

  • Effectuer une surveillance continue de la performance des modèles et assurer leur recalibrage pĂ©riodique.

  • Contribuer Ă  la documentation technique, Ă  la traçabilitĂ© et Ă  la gouvernance des algorithmes.

  • Participer activement aux revues de code et Ă  l’amĂ©lioration continue des pratiques analytiques.

  • Effectuer une veille technologique sur les outils et tendances en science des donnĂ©es, cloud computing et IA gĂ©nĂ©rative.


Compétences techniques recherchées



  • Excellente maĂ®trise de Python et des bibliothèques analytiques : pandas, scikit-learn, PySpark, MLflow, TensorFlow ou PyTorch.

  • ExpĂ©rience confirmĂ©e avec la plateforme Databricks (gestion des notebooks, Delta Lake, MLflow, Unity Catalog).

  • Solides compĂ©tences en SQL et manipulation de grandes volumĂ©tries de donnĂ©es.

  • ExpĂ©rience pratique dans un environnement cloud (Azure, AWS ou GCP), notamment avec les services analytiques et IA.

  • ComprĂ©hension approfondie des concepts de data engineering, d’ETL , de modĂ©lisation statistique et de machine learning supervisĂ© / non supervisĂ©.

  • Connaissance des bonnes pratiques de MLOps et de la mise en production des modèles.

  • MaĂ®trise des outils de visualisation : Power BI, Tableau ou Ă©quivalents.


Profil recherché



  • DiplĂ´me universitaire en science des donnĂ©es, mathĂ©matiques appliquĂ©es, informatique, ingĂ©nierie ou domaine connexe.

  • 3 Ă  5 ans d’expĂ©rience pertinente en data science, incluant au moins un projet en production cloud.

  • CapacitĂ© Ă  vulgariser des rĂ©sultats complexes et Ă  travailler en Ă©troite collaboration avec les parties prenantes mĂ©tiers.

  • Esprit analytique, autonomie, rigueur et curiositĂ© scientifique.


Atout


Connaissance des cadres de gouvernance et de conformité en matière de données (Loi 25, PIPEDA).


Conditions



  • Poste permanent, Ă  temps plein.

  • Mode de travail hybride ou 100 % tĂ©lĂ©travail possible selon les politiques du client.

  • Taux horaire ou salaire selon expĂ©rience.

  • Environnement technologique moderne (Azure Databricks, GitHub, Power BI, Terraform).


#J-18808-Ljbffr
Back to Listings

Create Your Resume First

Give yourself the best chance of success. Create a professional, job-winning resume with AI before you apply.

It's fast, easy, and increases your chances of getting an interview!

Create Resume

Application Disclaimer

You are now leaving Techaroundworld.com and being redirected to a third-party website to complete your application. We are not responsible for the content or privacy practices of this external site.

Important: Beware of job scams. Never provide your bank account details, credit card information, or any form of payment to a potential employer.