Projet de recherche doctoral numero :8314

Description

Date depot: 11 avril 2022
Titre: Explicabilité des protocoles d’argumentation
Directrice de thèse: Aurélie BEYNIER (LIP6)
Encadrante : Elise BONZON (LIPADE)
Encadrant : Jérôme DELOBELLE (LIPADE)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Intelligence artificielle

Resumé: L'étude des systèmes multi-agents (SMA) est un domaine de recherche qui s'est largement développé en IA ces dernières années. Les SMA permettent d'étudier formellement des systèmes dans lesquels plusieurs agents (rationnels) interagissent afin d’atteindre un ou plusieurs objectifs (éventuellement antagonistes). Ces interactions peuvent prendre différentes formes. Dans cette thèse, nous nous intéressons au cadre de la théorie de l’argumentation formalisant les échanges d’informations entre agents par des arguments. Ces arguments peuvent être en conflit les uns avec les autres lorsque les agents ont des croyances différentes. La théorie de l’argumentation étudie comment établir des conclusions à partir des arguments avancés par les agents. L'argumentation est ainsi au cœur des processus de délibération. Nous considérons un cadre dans lequel chaque agent est muni d'un système d'argumentation décrivant ses arguments et leurs relations. Nous nous intéressons en particulier aux protocoles d’argumentation permettant de réguler, dans des débats, les échanges d’arguments entre des agents ayant chacun leur propre opinion (arguments, croyances, objectifs, etc.). Les agents contribuent au débat étape par étape, guidés par leur évaluation individuelle de l'état actuel de la discussion, et sans coordination avec d'autres agents. Plusieurs protocoles ont été définis dans la littérature afin d’organiser les échanges. L’un des objectifs de tels débats argumentatifs est de permettre une prise de décision consensuelle entre des agents ayant des points de vue différents. Ces échanges sont également susceptibles de permettre l’apprentissage et éventuellement l’adoption de nouvelles croyances (arguments) de la part des autres agents. Une application directe de ces travaux est liée à la prise de décision collective dans des sociétés d’agents (aménagements dans une ville, financements de projets au sein d’une université ou d’un laboratoire...). Ces dernières années, plusieurs systèmes de débat se sont développés sur Internet afin de permettre à des utilisateurs d’échanger des opinions (par exemple Debatepedia et Debategraph). Le succès de ces plates-formes, dans leur forme actuelle, semble suggérer qu'elles peuvent devenir une source d’échange et d'information importante, tout comme Wikipedia l'est actuellement. Récemment, la notion d’intelligence artificielle explicable (XAI) a connu un regain d’attention de la part des chercheurs. Cette résurgence est motivée par le fait que beaucoup d’applications d’IA ont une utilisation limitée ou ne sont pas du tout appropriées, en raison de préoccupations éthiques et d’un manque de confiance de la part de leurs utilisateurs. L’explicabilité en argumentation reste un sujet très peu étudié. Pourtant pour permettre l’adoption par les utilisateurs de systèmes à base d’argumentation, il est indispensable de pouvoir expliquer les conclusions des débats. Il est en effet nécessaire d’être capable de justifier la décision proposée ou le résultat retourné dans la plupart des applications faisant appel à des techniques utilisant l’argumentation ; notamment lorsque ces applications sont destinées à un public non-spécialisé. Cependant, à notre connaissance, aucun travail n’a été fait pour permettre d’expliquer, aussi bien à un public expert ou non-expert en argumentation, l'acceptabilité de l’issue d’un débat. Un des objectifs de cette thèse est aussi de définir des méthodes permettant d’expliquer les différents résultats retournés par les protocoles d’argumentation qui seront étudiés. Encadrement Le doctorant sera accueilli au LIP6 (équipe SMA), Sorbonne Université, sous la direction de Aurélie Beynier (MCF, HDR au LIP6, Sorbonne Université), Elise Bonzon (MCF au LIPADE, Université Paris Cité) et Jérôme Delobelle (MCF au LIPADE, Université Paris Cité).