Description
Date depot: 16 janvier 2025
Titre: Méthodes d'IA explicable (XAI) pour la gestion et l'orchestration distribuées dans la 6G
Directeur de thèse:
Adlen KSENTINI (Eurecom)
Encadrant :
Christos VERIKOUKIS (CEID)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Non defini
Resumé: L'explicabilité de l'IA (XAI) répond au besoin de comprendre le fonctionnement des systèmes d'IA, en particulier dans les scénarios attendus et inattendus, en offrant des explications telles que la raison pour laquelle un modèle a produit un certain résultat, pourquoi il n'a pas produit un résultat alternatif et comment un résultat plus souhaitable peut être atteint. Les méthodes XAI sont classées comme globales ou locales, les méthodes globales expliquant le comportement global du modèle (par exemple, SHAP) et les méthodes locales se concentrant sur les prédictions individuelles (par exemple, LIME). L'essor des réseaux autogérés pilotés par l'IA/ML, tels que la gestion des services sans contact (ZSM), met en évidence l'importance de l'IAO dans l'automatisation des opérations de réseau tout en minimisant l'intervention humaine. La XAI et la ZSM sont généralement exécutées au sein de systèmes de gestion et d'orchestration distribués (DMO). Les études existantes sur les méthodes XAI pour la gestion des réseaux et des services se concentrent sur la visualisation, la simplification des modèles et la pertinence des caractéristiques, mais ces méthodes ne tiennent souvent pas compte de la complexité des systèmes de réseaux modernes. En outre, la plupart des travaux n'utilisent les résultats de l'XAI que pour expliquer les prédictions, plutôt que de les exploiter pour améliorer la prise de décision dans les ZSM, ce qui reste un besoin non satisfait. Dans cette thèse de doctorat, nous tirerons parti de l'intelligence artificielle explicable (XAI) pour utiliser des modèles avancés d'IA/ML, dans le but d'améliorer les processus de prise de décision dans la gestion et l'orchestration des réseaux de nouvelle génération, y compris la 6G. Ces réseaux sont intrinsèquement complexes, car ils impliquent non seulement des réseaux mais aussi des ressources informatiques. Cette complexité nécessite le développement de nouveaux modèles d'IA/ML explicables afin de garantir leur déploiement efficace dans des environnements opérationnels.
Résumé dans une autre langue: Explainability of AI (XAI) addresses the need to understand how AI systems function, particularly in expected and unexpected scenarios, by offering explanations such as why a model produced a certain output, why it did not produce an alternative outcome, and how a more desirable result can be achieved. XAI methods are categorized as global or local, with global methods explaining overall model behavior (e.g., SHAP) and local methods focusing on individual predictions (e.g., LIME). The rise of AI/ML-driven self-managed networks, such as Zero-touch Service Management (ZSM), highlights the importance of XAI in automating network operations while minimizing human intervention. XAI and ZSM are typically run within Distributed Management and Orchestration (DMO) systems. Existing studies on XAI methods for network and service management focus on visualization, model simplification, and feature relevance, but these methods often fail to address the complexity of modern networking systems. Furthermore, most works only use XAI outputs to explain predictions, rather than leveraging them to enhance decision-making in ZSM, which remains an unmet need. In this PhD thesis, we will leverage Explainable Artificial Intelligence (XAI) to utilize advanced AI/ML models, aiming to enhance decision-making processes in managing and orchestrating next-generation networks, including 6G. These networks are inherently complex, involving not only networking but also computing resources. Such complexity necessitates the development of novel, explainable AI/ML models to ensure their effective deployment in operational environments.
Doctorant.e: Fentazi Mohamed Readh