Les missions du poste

Établissement : Université de Toulouse
École doctorale : EDMITT - Ecole Doctorale Mathématiques, Informatique et Télécommunications de Toulouse
Laboratoire de recherche : IRIT : Institut de Recherche en Informatique de Toulouse
Direction de la thèse : Nan MESSE
Début de la thèse : 2026-10-01
Date limite de candidature : 2026-09-21T23:59:59

Contexte
Les Machine Learning Operations (MLOps) sont devenues essentielles pour gérer le cycle de vie des modèles ML, en assurant livraison continue, automatisation et reproductibilité. Cependant, la sécurité n'a pas suivi la même évolution rapide. Les pratiques classiques de sécurité logicielle (analyses statiques, scans dynamiques, évaluations de vulnérabilités) sont bien établies, mais les pipelines ML présentent des risques spécifiques : attaques adversariales, empoisonnement de modèles, compromission des données d'entraînement, dérive des modèles, injection d'attaques, ainsi que des défis de confidentialité et de conformité (protection des données personnelles, PII). Les pratiques MLOps actuelles manquent de mécanismes de sécurité intégrés, sont fragmentées et souvent incompatibles avec l'agilité promise. Cela a donné naissance au domaine émergent du DevSecMLOps, qui adapte les principes de DevSecOps aux systèmes ML pour concilier sécurité et agilité.

Le problème central est l'absence d'une approche unifiée et systématique pour intégrer la security-by-design dans l'ensemble des pipelines MLOps, incluant :

l'intégration explicite des exigences de sécurité dès la conception,

le suivi et le contrôle continu de ces exigences à toutes les étapes du pipeline,

l'adaptation aux menaces évolutives sans ralentir le déploiement.

Sans cette approche, les systèmes d'IA risquent d'être performants mais fragiles, exposant les organisations à des failles critiques de sécurité et de confidentialité.

Objectifs
La thèse visera à poser les bases et à développer des mécanismes pratiques de DevSecMLOps, avec un accent particulier sur la confidentialité des données et la robustesse des modèles. Les objectifs incluent :

Intégrer les exigences de sécurité dans les workflows ML dès le début, en anticipant et en atténuant les menaces (empoisonnement de données, manipulation adversariale, fuites de données).

Explorer l'automatisation assistée par IA pour réaliser des contrôles de sécurité continus, tests adversariaux et détection d'anomalies, conciliant rigueur et agilité.

Développer un cadre méthodologique et technique opérationnalisant la sécurité dans les pipelines ML, permettant un déploiement fiable et performant des systèmes d'IA.

Mission du doctorant
Le doctorant :

étudiera les vulnérabilités tout au long du cycle de vie ML et analysera les pratiques MLOps existantes,

identifiera comment étendre les principes DevSecOps aux workflows ML,

concevra des mécanismes de security-by-design adaptés à chaque étape (ingestion des données, prétraitement, entraînement, déploiement),

explorera l'usage de ML pour automatiser les contrôles de sécurité et générer des tests adversariaux,

validera les solutions via des cas industriels (Softeam Group), évaluant l'efficacité sur la réduction des menaces tout en maintenant reproductibilité et rapidité de livraison.

Machine Learning Operations (MLOps) has become essential to managing the lifecycle of machine learning (ML) models, enabling continuous delivery, automation, and reproducibility. However, the rapid adoption of MLOps has advanced more quickly than the integration of robust security practices. Traditional software security practices-such as static analysis, dynamic scans, and vulnerability assessments-are well established, but ML pipelines present additional unique security concerns [1] [2]. For instance, ML systems face risks like adversarial attacks, model poisoning, training data compromise, drift, and injection attacks [3]. Additionally, privacy and compliance challenges-such as protecting personally identifiable information (PII) during data ingestion and model training-introduce further complexity that traditional security methods often overlook [4]. This suggests that machine learning models require security controls tailored to their lifecycle, from data collection to training, deployment, and monitoring. Current MLOps practices lack comprehensive built-in security mechanisms tailored to ML-specific risks and are fragmented: they either target specific threats, lack end-to-end traceability across the pipeline, or introduce prohibitive overhead that undermines the agility promised by MLOps. This has given rise to the emerging field of DevSecMLOps, which aims to extend the principles of DevSecOps [5, 6] to machine learning systems, ensuring both agility and security in AI-based applications.
The core problem is therefore the absence of a unified, systematic, and pipeline-wide approach to integrate security-by-design into MLOps pipelines. We lack frameworks that can:
Embed security requirements explicitly into ML workflows from the start,
Continuously enforce and monitor these requirements across all pipeline stages, and
Adapt to evolving threats without slowing down the pace of deployment.
Without such an approach, organizations risk deploying AI systems that are performant but fragile, exposing them to critical security and privacy breaches.

The PhD will investigate the foundations and practical mechanisms of DevSecMLOps. The specifics of security in MLOps will mainly concern privacy. Users of ML-based solutions are legitimately concerned about the future of their data (e.g., where it is stored and who has access to it), and data anonymization is a key concern. The other facet of security (e.g., who is responsible in the event of a security problem?, how to ensure that ML models are robust against attacks and cannot be used maliciously) will also have to be taken into account. The research will focus on embedding security requirements directly into ML workflows, ensuring that threats such as data poisoning, adversarial manipulation, and privacy leakage are anticipated and mitigated early. It will also explore AI-driven automation to support continuous security checks, balancing the rigour of security with the agility of continuous delivery. The expected result is a methodological and technical framework that operationalizes security for ML pipelines, enabling organizations to deploy AI systems that are both performant and trustworthy.

Le profil recherché

L'appel est ouvert aux étudiants en master ou aux professionnels ;
les étudiants en master à la recherche d'un stage de 6 mois, avec l'intention de poursuivre en doctorat, sont également invités à postuler

Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.