Projet de recherche doctoral numero :2554

Description

Date depot: 1 janvier 1900
Titre: Comparaison modèle d'image contre supplément d'information pour la super-résolution
Encadrant : Said LADJAL (LTCI (EDMH))
Directeur de thèse: Andres ALMANSA (LTCI (EDMH))
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Non defini

Resumé: La super-résolution désigne un ensemble de techniques capables de produire à partir d'une ou plusieurs images de basse résolution une image à haute résolution. Jusqu'à présent le problème a été abordé sous divers angles. La principale classification que nous pouvons faire entre les différentes techniques (mis à part les divers outils mathématiques utilisés) est la dichotomie mono/multi-image (voir [10] pour un panorama des méthodes de super-résolution). Dans toute technique de restauration, dont fait partie la super-résolution, il y a deux composantes: Les données et le modèle. Les données sont ce qui a été acquis de la scène. Le modèle est l'ensemble des a priori que l'on pose sur les images. Ces deux composantes sont bien illustrées par les méthodes variationnelles où l'on cherche à minimiser une fonctionnelle faisant intervenir explicitement un terme d'attache aux données et un terme de régularité. Ces termes peuvent aussi, très, facilement s'interpréter comme un a priori statistique sur la distribution de probabilité des images et du bruit (voir [12] pour un exemple). Nous appelons 'modèle d'image' un a priori sur la distribution de probabilité des images naturelles. Beaucoup de modèles d'images ont été proposés. -# modèle Tychonov: Qui s'interprète comme un modèle d'images invariantes par translation et générées comme convolution d'un processus blanc par un filtre linéaire. Son principal avantage est la simplicité de manipulation et d'implémentation numérique. -# Modèle feuille mortes [2]: Plus adapté à la formation des images comme superposition d’objets il permet d’expliquer les marginales de distributions de coefficients d’ondelettes des images naturelles sans pour cela fournir une méthode explicite de restauration. -# Variation totale: Il a été remarqué que le modèle quadratique (que nous avons appelé Tychonov) ne permet pas de reproduire les discontinuités des images qui sont à la fois prévus par le modèle feuilles mortes et par notre expérience visuelle des images. Rudin Osher et Fatemi [17] ont proposé une énergie de régularisation pour la restauration (originellement pour le débruitage) basée sur la variation totale. Ce travail fondateur en traitement des images a eu un succès phénoménal et donna lieu à toute une série de travaux. Citons comme exemple le zoom par variation totale [14]. -# L'acquisition compressée/parcimonie (compressed sensing/sparsity) : Le modèle parcimonieux est celui qui suppose qu'un signal est une somme de peu de composantes dans une certaine base. Il prédit la reconstruction exacte d'un signal à partir d’un petit nombre (par rapport à la dimension du signal ou de l'image) de projections sur une autre base sont connues (voir [7] pour un travail fondamental sur le sujet). On se rend compte qu'il est une généralisation de choses connues depuis longtemps en traitement du signal et des images. Par exemple, la variation totale est un modèle de parcimonie dans la base des différences locales entre pixels. Néanmoins les apports théoriques de l’acquisition compressée ont permis un extraordinaire développement de méthodes nouvelles basées, par exemple, sur l’apprentissage de dictionnaires [15,18]. Ces nouveaux modèles arrivent à des résultats spectaculaires dans le cas de la reconstruction à partir de données partielles. Ils son tune forme performante de super-résolution (si nous comprenons la super-résolution au sens général de découverte de nouvelles information au sujet d’une scène) mono-image. Un autre apport de l’introduction théorique de la parcimonie en traitement des images a été le développement de méthodes d’optimisation rapide rendant l’utilisation de ce modèle utilisable en pratique. (voir la suite logiciel l1-magic, par exemple ou encore [5]). {L'attache aux données:} le plus souvent l’attache aux données reflète pour sa part, le caractère blanc du bruit qui affecte les images. Cependant, dans le cas de la super-résolution multi-image, la multiplication des données peut rendre la partie attache aux données de plus en plus stable et inversible sans recours à une régularisation (ou à un modèle d’images). Simplement dit, l’augmentation du nombre d’équations jusqu’à égaler ou dépasser le nombre d’inconnues rend le problème inversible, évidemment en supposant les équations bien indépendantes [11]. Dans le même registre [8] on montre que, contrairement à la pratique courante, la regularisation n'est pas nécessaire losrque l'on utilise une mire de callibration pour estimer le noyau de flou superrésolu d'un apareil photo, même avec une seule capture, même dans des conditions aliasées. Ceci à condition que ladite mire soit connue et suffisamment irrégulière. Outre le lien méthodologique, ces estimations très précises et sous-pixelliques du noyau de flou seront utilisées dans ce travail comme donnée d'entrée dans une procédure de superrésolution.

Doctorant.e: Traonmilin Yann