Description
Date depot: 1 janvier 1900
Titre: Apprentissage des interactions multi-agents
Directeur de thèse:
Nicolas SABOURET (LIMSI)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Non defini
Resumé:
L'objectif de cette thèse est de définir des mécanismes d'apprentissage d'interactions dans un système multi-agent en prenant en compte les hypothèses de distribution, d'asynchronisme et de faible couplage.
De nombreux travaux en apprentissage par renforcement montrent qu'il est possible d'apprendre, dans un cadre réduit, un comportement qui permet à un agent d'atteindre un but défini de manière implicite par une fonction de récompense. Cependant, très peu de travaux se sont intéressés à la prise en compte des interactions comme objet de l'apprentissage.
Cette thèse s'intéresse à l'étude de SMA asynchrones dans lequel les agents apprenants ne disposent pas d'un modèle de leurs pairs et doivent apprendre à interagir avec eux. Les modèles markoviens classiques ne sont alors plus directement applicables. Dans un premier temps, le doctorant devra étudier l'utilisation de protocoles multi-agents et d'actes de langage spécifiques pour faire converger l'apprentissage avec un seul agent apprenant. Dans un second temps, nous nous intéresserons à la modélisation de l'exécution passée pour prédire plus efficacement les effets des actions. Enfin, nous aborderons le contexte multi-apprenant qui implique une variabilité plus grande du système du point de vue de chaque observateur.
Doctorant.e: Hoet Shirley