Description
Date depot: 1 janvier 1900
Titre: Apprentissage dans les réseaux de convolution
Directeur de thèse:
Matthieu CORD (ISIR (EDITE))
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Non defini
Resumé:
Les méthodes de classifications à base d’architecture profondes (deep learning), et en particulier les réseaux de neurones convolutifs (CNN), sont très utilisées pour la reconnaissance de données visuelles. Malgré leurs très bonnes performances, les CNN présentent des limitations intrinsèques concernant l’invariance aux transformations géométriques. La seule invariance effectivement représentée dans ces réseaux CNN est celle en translation (très localisée). Elle est codée via l’opération dite de pooling (agrégation) dans ces architectures deep. Pour le reste, la capacité à encoder de l’invariance provient essentiellement de la taille du réseau (l’architecture profonde standard pour ImageNet contient 100 millions de paramètres).
L'objectif de cette thèse est d'étudier ce type d'architecture profonde. il s'agit d'une part d'analyser la structure du réseau, et d'autre part des modalités nouvelles d'apprentissage des paramètres d'un tel réseau.
Doctorant.e: Blot Michael