Projet de recherche doctoral numero :8108

Description

Date depot: 1 avril 2021
Titre: Explicabilité des systèmes d'intelligence artificielle hybride dans un contexte d'interactions avec des humains
Directrice de thèse: Isabelle BLOCH (LIP6)
Directrice de thèse: Marie-Jeanne LESOT (LIP6)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Non defini

Resumé: Cette thèse s'inscrit dans le cadre des recherches émergentes sur l'explicabilité des systèmes d'intelligence artificielle (IA), en particulier dans des situations d'interaction avec des humains. L'objectif est de formaliser cette notion d'explication lorsque l'on manipule à la fois des données et des connaissances, comme c'est typiquement le cas dans des situations d'interaction avec des humains. L'approche envisagée dans la thèse pour aborder la question de l'explication en situation d'interaction portera d'abord sur une structuration de l'espace des explications par la proposition de mesures de comparaison d'explications. Savoir ce qu'est une ``bonne'' ou une ``meilleure'' explication est une autre question que nous souhaitons aborder. Cela nécessite de définir une relation d'ordre partiel sur l'espace des explications. La thèse se focalisera sur un type d'interaction humain-machine : les agents conversationnels animés (ACA). Les explications porteront sur le comportement de l'agent, sur le comportement de l'humain, et serviront à améliorer les interactions entre eux. Mots clés : Intelligence artificielle explicable, interactions entre agents conversationnels et humains, explication du comportement. Directeurs : Isabelle Bloch et Marie-Jeanne Lesot (LIP6), Mohamed Chetouani et Catherine Pélachaud (ISIR)

Résumé dans une autre langue: This thesis deals with explainability of artificial intelligence systems, in a context of interactions with humans. The objective is to formalize the notion of explanation when both data and knowledge are involved, as it is typically the case in many situations of interactions with humans. A first step will be to structure the space of explanations, by proposing measures to compare explanations. What is a good, or preferred, explanation is another question to be addressed. This will require the definition of a partial ordering relation on the space of explanations. The thesis will focus on conversational agents. Explanations will concern the behavior of the agent, the behavior of the human, and will help improving interactions between them.