Projet de recherche doctoral numero :8291

Description

Date depot: 28 mars 2022
Titre: L’apport de l’Intelligence Artificielle dans les contrôles et commandes (C2)
Directrice de thèse: Amal EL FALLAH SEGHROUCHNI (LIP6)
Encadrant : Vincent CORRUBLE (LIP6)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Intelligence artificielle

Resumé: Un défi central de ce sujet est l’articulation entre d’une part (a), l’analyse de situation, qui permet en particulier de catégoriser les menaces à partir d’une description riche, potentiellement complexe de l’état de l’environnement, et d’autre part (b) la prise de décision concernant les actions de défense, qui peut être abordé avec des approches classiques en IA s’inspirant des systèmes à base de connaissances ou de la planification, ou bien à travers des approches de type Apprentissage par Renforcement (RL), où une politique est apprise suite à de nombreuses interactions avec l’environnement. (a) et (b) sont bien deux questions importantes qui pourraient être abordées indépendamment, mais qui pourront bénéficier d’une vision plus globale.La question (a) peut se reformuler sous la forme d’un problème d’abstraction, domaine qui fait l’objet de travaux théoriques en IA depuis une dizaine d’années [5]. Cette abstraction peut être le résultat de connaissances formalisées en amont (voir par exemple l’application au domaine du jeu et de la simulation militaire [6,7]), mais peut également être le résultat d’un apprentissage. Dans ce cadre, une branche de l’apprentissage par renforcement s’intéresse au processus d’abstraction comme partie intégrante de l’apprentissage [8, 9], en distinguant l’abstraction sur l’espace d’états (qui correspond à (a)) de l’abstraction sur l’espace d’actions.Alors qu’elle a pris un nouvel essor avec l’avènement du Deep Reinforcement Learning, en particulier à travers la possibilité d’extraire des caractéristiques pertinentes (automated feature extraction) des niveaux intermédiaires des réseaux de neurones après apprentissage, cette approche pourrait s’avérer prometteuse, bien qu’elle puisse aussi se confronter à deux écueils, l’un d’ordre pratique, l’autre d’ordre conceptuel. D’un point de vue pratique, la plupart des approches de Deep RL requièrent de nombreuses interactions avec l’environnement, qui supposent l’existence d’un simulateur efficace et suffisamment réaliste. Du point de vue conceptuel, il faudra veiller comme mentionné plus haut à l’explicabilité des résultats obtenus de cette manière et en particulier à l’adéquation entre l’analyse de situations résultant d’un apprentissage automatique et celles communément étudiées par les expertsdu domaine. Le premier écueil pourrait orienter les travaux vers des versions alternatives du RL comme l’IRL (Inverse Reinforcement Learning, [10,11]). Le deuxième pourra faire l’objet de travaux spécifiques qui pourraient devenir des contributions importantes de cette thèse.En première instance le RL est la piste privilégiée pour le début de la thèse, mais il est aussi envisagé de pouvoir étudier d’autres techniques d’IA qui pourraient présenter un intérêt pour la suite des travaux.



Doctorant.e: Colliard Valentin