Introduction au poste
Dans le cadre de notre événement "Data & AI Recruitment Week", qui se tiendra du mercredi 3 décembre au mercredi 10 décembre, nous recrutons un "Data Scientist Senior" pour renforcer notre équipe data.
Vous interviendrez sur des projets de modélisation avancée, d’optimisation et d’exploitation intelligente de la donnée.
Le rôle consiste à développer des modèles performants, explorer de nouveaux cas d’usage et contribuer à l’évolution de nos pratiques data science.
Si vous souhaitez évoluer dans un environnement innovant, exigeant et orienté impact, cette opportunité est faite pour vous.
Votre rôle
- Réaliser des analyses exploratoires simples (EDA) et préparer les données sous supervision : nettoyage, gestion des valeurs manquantes, encodage.
- Implémenter des modèles de base avec scikit-learn (régression/logistique, arbres de décision) et établir une baseline documentée.
- Évaluer les modèles avec des métriques adaptées (Accuracy, F1-score, RMSE…) et présenter les résultats dans des notebooks clairs et structurés.
- Contribuer aux scripts de préparation des données (pandas, SQL basique) en appliquant les bonnes pratiques de développement (PEP8, revues de code).
- Participer à la création de visualisations et de petits tableaux de bord (Matplotlib, Plotly ; notions Power BI / Tableau).
- Maintenir une traçabilité des expérimentations (table de suivi, notions MLflow) et rédiger la documentation technique et utilisateur.
- Collaborer avec les Data Engineers et Product Owners pour clarifier les besoins, comprendre le contexte métier et améliorer la qualité des données.
- Apporter un support à la mise en production encadrée : packaging simple, tests unitaires basiques — sans responsabilité d’exploitation autonome.
Vos qualifications
Formation
- Bac +4/5 en école d’ingénieur ou université, avec spécialisation en data science, statistiques ou informatique.
Expérience
- Minimum 4 ans d’expérience en Data Science ou dans un poste analytique équivalent.
Compétences techniques
- Excellente maîtrise de Python et des librairies data/science : pandas, numpy, scipy, scikit-learn, XGBoost/LightGBM.
- Solide expérience en feature engineering, prévention du data leakage, cross-validation (y compris temporelle).
- Bon niveau en statistiques appliquées : tests, intervalles de confiance, bootstrap, bases d’inférence.
- Maîtrise des méthodes d’évaluation : accuracy, F1, ROC-AUC, PR-AUC, RMSE, MAPE ; notions de calibration et coût-métriques.
- Compétences pratiques en NLP : embeddings, spaCy / pipelines HuggingFace, nettoyage texte ; bases sur les Transformers.
- Suivi et traçabilité des expérimentations : MLflow, notions DVC, Gitflow, CI légère.
- Bonne compréhension des environnements Cloud (AWS, Azure ou GCP) : stockage, compute, Docker.
- Premières expériences avec les LLMs : prompting, LoRA/QLoRA à petite échelle, évaluation simple (RAGAS, Giskard).
Compétences comportementales
- Rigueur, sens du détail et esprit d’équipe.
- Curiosité technique, capacité d’apprentissage rapide.
- Bonne communication et capacité à vulgariser.
Langues
- Maîtrise du français et de l’anglais.