Projet de recherche doctoral numero :4163

Description

Date depot: 1 janvier 1900
Titre: Adaptation temporelle de l'interaction
Directrice de thèse: Catherine PELACHAUD (ISIR (EDITE))
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Non defini

Resumé: L’objectif de cette thèse est de développer un système adaptatif et anticipatif de la gestion de l’interaction. Il s’agit de dépasser les approches classiques qui sont statiques, déterminées préalablement. Les enjeux sont donc de pouvoir adapter en temps-réel les modèles et représentations de l’interaction, en prenant en compte les différentes échelles temporelles de cette interaction. Cela implique de reconnaître et adapter des phénomènes à court-terme (réactions, synchronisation) ainsi que des phénomènes à long-terme (émergence formelle) et mettant à jour des représentations multi-échelles et hiérarchiques de l’interaction (impliquant des représentations cognitives, ou état mentaux).Le travail de thèse mettra à profit des connaissances, modèles et systèmes qui se développent pour l’instant dans des domaines séparés : agents conversationnels, interaction musicale et improvisation (« agents créatifs autonomes »). La formalisation d’un modèle cohérent d’interaction permettant de traiter ces différents domaines représente un défi très intéressant, puisque cela nécessite le développement d’une approche globale de l’interaction permettant d’envisager de nombreuses autres applications. Ce travail se focalisera particulièrement sur divers aspects de l’« expressivité » mise en œuvre dans l’interaction, et non sur les aspects purement langagiers (texte parlé ou musical), qui seront traités en intégrant les systèmes existants à l’Ircam et à Telecom-ParisTech. La thèse sera structurée autour de deux cas d’applications principales, à savoir l’improvisation musicien-ordinateur et l’interaction humain - agent conversationnel. Cette thèse s’appuiera fortement sur les travaux antérieurs de l’Ircam sur l’interaction musicale (équipes Interactions Musicales Temps Réel et Représentations Musicales) et de Telecom-ParisTech (équipe Multimédia) sur les agents conversationnels. A l’Ircam, l’équipe Interactions Son Musique Mouvement a développé divers systèmes d’interaction entre mouvement et processus sonores. L’équipe Représentations Musicales a développé le logiciel OMax qui permet une interaction musicale improvisée entre un musicien et l’ordinateur. A Telecom-Paris, l’équipe Multimédia a développé une plateforme d’agent conversationnel animé, Greta, capable de communiquer verbalement et non-verbalement avec des utilisateurs.

Doctorant.e: Sanlaville Kevin