Description
Date depot: 8 avril 2021
Titre: Optimisation de l’exécution d’un réseau de neurones sur un accélérateur IA
Directrice de thèse:
Alix MUNIER (LIP6)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Algorithmique, combinatoire
Resumé: Les algorithmes d’apprentissage profond permettent de nos jours de traiter de nombreux problèmes complexes dans des champs disciplinaires variés tels que la vision par ordinateur, la reconnaissance automatique de la parole ou des applications à la santé. Le développement de ces techniques est en grande partie lié à l’essor des moyens de calcul qui permettent l’utilisation de réseaux de neurones beaucoup plus importants en taille. Un des challenges actuel est d’être capable de concevoir des architectures qui pourront supporter les algorithmes d’inférence pour un réseaux de neurones multi-couche avec peu d’énergie consommée et une vitesse élevée.
Le but de cette thèse est de développer des stratégies pour exécuter un réseau de neurones à plusieurs couches sur une accélérateur d’IA. Le réseau de neurones en entrée sera caractérisé par la taille et les opérations des différentes couches. On étudiera dans un premier temps des opérateurs classiques de type « feed-forward » (CONV, FC). La poursuite sur des opérateurs de type récurrent (par ex. LSTM) sera envisagée en fonction de l’avancement des travaux. L’accélérateur IA considéré sera décrit par son nombre de processeurs, la structure des connections entre processeurs, la taille et les durées d’accès aux différentes mémoires. Le but est de développer une boite à outil algorithmique pour construire un placement et un ordonnancement de l’ensemble des opérations associées au réseau de neurones en entrée sur l’accélérateur IA fixée de sorte à optimiser la durée de calcul et respecter l’ensemble des contraintes liées aux mémoires.