Projet de recherche doctoral numero :4461

Description

Date depot: 1 janvier 1900
Titre: Manipulation et analyse d'images médicales 3D via des interactions gestuelles sur surfaces tactiles
Directeur de thèse: Yves GUIARD (LTCI (EDMH))
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Non defini

Resumé: L’objectif de cette thèse CIFRE en collaboration avec GE HealthCare est de contribuer à enrichir l’interaction sur tablettes tactiles en rendant utilisables sur ces surfaces réduites un plus grand nombre de fonctionnalités. Le contexte spécifique auquel nous avons songé en priorité est la revue radiologique numérique, une tâche particulièrement difficile à implémenter sur des surfaces réduites parce qu'elle requiert des manipulations précises et l’emploi d’outils multiples et complexes. La conception et le développement d’un prototype destiné à une application d’imagerie médicale a eu pour effet de nous confronter à des problèmes réels auxquels nous avons tenté d’apporter des solutions concrètes. Dans le premier volet de cette thèse, d’inspiration appliquée, nous nous sommes efforcés d'optimiser l'exploitation des canaux d’entrées existants sur tablette en concevant et en évaluant expérimentalement un certain nombre de techniques d’interaction nouvelles. Ainsi le Sigma-Menu et le Finger-Menu réduisent considérablement la consommation de l’espace-écran, ressource rare sur tablette, pour des performances similaires à celles obtenues avec les techniques traditionnelles sur tablette (barre d’outils et barre de menus). La technique Augmented Letters tire parti des capacités langagières des utilisateurs pour accroître substantiellement le nombre de raccourcis gestuels mémorisables. Enfin la Barre d’Outils Multitouch, une technique rétro-compatible avec les barres de menus traditionnelles, accroît l’information d’entrée en prenant en considération le nombre des points de contact. La plupart de ces techniques (Sigma-Menu, Finger-Menu, Multi-Touch Menu) ont été intégrées à notre prototype de radiologie. Dans le second volet de cette recherche, d’inspiration plus fondamentale, nous sommes partis du constat que tout contact est un événement bi-surface. Si les coordonnées du pointage disent au système quelle partie de la surface de l’écran a été touchée, l’identification du doigt qui pointe peut lui permettre de savoir quelle partie de la surface du corps est venue toucher l’écran. Ces deux informations étant en pratique largement indépendantes, on peut voir dans le pointage de cible classique un double canal d’information au sens de Shannon. Nous confirmons avec une expérience qu’en combinant l’identification du point de contact sur l’écran avec l’identification du doigt il devient possible, à un niveau donné de surface d’écran, non seulement d’étendre substantiellement la taille des vocabulaires de commandes (considérée dans notre étude comme une entropie et mesurée en bits) mais également d’accroître les débits effectifs d’information (mesurés en bits/s).

Doctorant.e: Roy Quentin