Description
Date depot: 15 novembre 2023
Titre: Trustworthy and privacy-preserving federated learning
Directrice de thèse:
Melek ONEN (Eurecom)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Non defini
Resumé: Artificial intelligence (AI) technologies can efficiently process large amounts of data, to help stakeholders improve their services and deliver applications tailored to end-users' needs. Although the benefits of AI technologies for society are obvious, their adoption remains unfortunately slow due to a lack of confidence in this technology. Indeed, the performance and robustness of AI technologies depend on access to large data sets of good quality. In this context, federated learning (FL) is emerging as a powerful paradigm for collaboratively training a machine learning model across thousands, even millions of participants. Federated learning intrinsically promises certain privacy guarantees for customers, as learning data never leaves the customer's premises. Nevertheless, the collaborative aggregation of model parameters can potentially expose customer-specific information, and paves the way for security breaches with potential loss of privacy. The PhD student will study the privacy and security challenges associated with federated learning, and design and evaluate scalable and trustworthy privacy-enhancing technologies for FL using advanced cryptographic techniques such as homomorphic mukey encryption or secure multi-party computation.
Résumé dans une autre langue: Les technologies d'intelligence artificielle (IA) peuvent traiter efficacement de grandes quantités de données, afin d'aider les parties prenantes à améliorer leurs services et à
proposer des applications adaptées aux besoins des utilisateurs finaux. Bien que les avantages des technologies de l'IA pour la société soient, leur adoption reste malheureusement lente en raison d’un manque de confiance en cette technologie. En effet, la performance et la robustesse des technologies d'IA dépendent de l'accès à de grands ensembles de données de bonne qualité. Dans ce contexte, l'apprentissage fédéré (AF) apparaît comme un paradigme puissant pour former de manière collaborative un modèle d'apprentissage automatique parmi des milliers, voire des millions de participants. L'apprentissage fédéré promet intrinsèquement certaines garanties de protection de la vie privée pour les clients, car les données d'apprentissage ne quittent jamais les locaux du client. Néanmoins, l'agrégation collaborative des paramètres des modèles peut potentiellement exposer les informations spécifiques des clients, et ouvre la voie à des failles de sécurité avec une perte potentielle de la vie privée. Le doctorant étudiera les défis en matière de confidentialité et de sécurité associés à l'apprentissage fédéré et concevra et évaluera des technologies évolutives et efficaces d'amélioration de la confidentialité pour FL à l'aide de techniques cryptographiques avancées telles que le chiffrement homomorphe à clés multiples ou le calcul multi-partite.
Doctorant.e: Akram Aftab