Explication d'algorithmes d'IA'boîtes noires' par exemples d'apprentissage

CDD / Temporaire(36 mois)
Châtillon
Salaire : 35K à 40K €
Début : 30 septembre 2025
Télétravail fréquent
Expérience : < 6 mois
Éducation : Bac +5 / Master
Postuler

Orange
Orange

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Votre rôle est d’effectuer une thèse de doctorat sur l’explication d’algorithmes d’IA “boîtes noires” par ses exemples d’apprentissage.

Contexte global et problématique du sujet
Les progrès récents des méthodes d’apprentissage ont amené de nouvelles applications en IA porteuses de promesses d’automatisation pour gagner en efficacité opérationnelle ou soulager les métiers de tâches peu intéressantes. Ces IA reposent la plupart du temps sur des modèles surparamétrés, dont les paramètres sont appris sur d’immenses jeux d’apprentissage. De ce fait, elles sont qualifiées d’”opaques”: il est impossible de comprendre précisément le processus qui amène à des décisions une fois le système mis en production. Parallèlement, le régulateur (IA Act), les utilisateurs métiers, les utilisateurs finaux demandent plus de transparence, ont un besoin d’explicabilité de ces algorithmes.
Ces dernières années ont vu l’émergence de méthodes d’explicabilité, chacune avec les avantages et inconvénients. Les méthodes d’explicabilité identifient les exemples d’apprentissage qui portent des décisions d’une IA [1], explication parlante pour les non-experts, proche de la manière dont les personnes raisonnent. Ces méthodes ont par exemple été récemment appliquées des modèles de langage à l’état de l’art [2].

Objectif scientifique
La thèse consistera en un état de l’art des avancées théoriques, algorithmiques et pratiques de ces méthodes afin d’en tirer de nouvelles pistes de recherche, de proposer de nouvelles méthodes en partenariat avec les encadrants. Nous avons pré-identifié les verrous à lever:
le passage à l’échelle des méthodes demandant des ressources, en se basant sur des algorithmes approchés récents[3]
la formalisation de la bonne manière d’attribuer son importance à chaque exemple d’entraînement, lorsque la prédiction effectuée par modèle repose sur plusieurs d’entre-eux[4]
l’identification de groupes d’exemples qui amènent à des comportements non-désirés, tels que des prédictions inéquitables envers certains groupes d’instances, des exemples mal-étiquetés ou des anomalies.[5]
la problématique de l’ergonomie par la mise à disposition de ces explications à des utilisateurs réels, non experts data scientists, ou des ergonomes d’Innovation experts sur la réception d’objets techniques en condition de travail. [6]
Au cours de la thèse, vous serez amené à publier des nouvelles productions scientifiques, faire des conférences, en interne, et au laboratoire d’accueil.


Profil recherché

Compétences (scientifiques et techniques) et qualités personnelles exigées par le poste
Excellent niveau en mathématiques/statistiques
Programmation (Python, Scikit learn, Pytorch), avoir un dépôt github avec des projets est un plus
Être capable de résoudre des problèmes complexes, et être créatif pour proposer des solutions innovantes
S’intégrer dans une équipe de travail
Idéalement, avoir une sensiblité pour les questions autour de l’IA éthique: équité, transparence, frugalité
Excellentes compétences rédactionnelles (anglais)
Capacités de synthèse et de communication.

Formation demandée
Ecole d’ingénieur ou M2 recherche (par exemple MVA), avec une forte composante en apprentissage automatique
Expériences souhaitées
Stage avec une composante développement de modèles en apprentissage
Idéalement, une expérience en recherche démontrée

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

  • Civils de la Défense - Ministère des Armées
    Civils de la Défense - Ministère des Armées
    Civils de la Défense - Ministère des Armées
    CDD / Temporaire

Postuler