Projet de recherche doctoral numero :8225

Description

Date depot: 29 octobre 2021
Titre: L’Apprentissage contradictoire et la confidentialité différentielle
Directrice de thèse: Melek ONEN (Eurecom)
Encadrante : Ayse UNSAL (Eurecom)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Intelligence artificielle

Resumé: L'objectif de cette thèse de doctorat est d'étudier l'interaction entre l'apprentissage fédéré, l'apprentissage contradictoire et les technologies d'amélioration de la protection de la vie privée. Nous considérons qu'un mécanisme différentiellement confidentiel est utilisé sur les données des parties et cet adversaire qui est capable de modifier (ajouter, remplacer, supprimer, etc.) les informations publiées. Le but de cet adversaire est de maximiser les dégâts possibles tout en restant indétectable. Par conséquent, bien qu'initialement considéré comme une technologie d'amélioration de la protection de la vie privée, un mécanisme différentiellement confidentiel peut être utilisé par l'adversaire comme un outil pour l'aider à ne pas être détecté. Une première étude sur cet aspect a récemment été proposée. Les deux objectifs contradictoires de l'adversaire sont formulés comme un problème d'optimisation où maximiser le biais induit par l'adversaire est la fonction d'objective. Néanmoins, le paramètre de confidentialité différentielle n'est pas considéré comme une variable dans leur formulation. Un autre axe de recherche identifie un lien entre la confidentialité différentielle et la robustesse contre des exemples contradictoires.

Résumé dans une autre langue: The goal of this PhD work is to study the interplay between federated learning, adversarial learning and privacy enhancing technologies. We consider that some differentially private mechanism is used over parties’ data and that adversary who is able to modify (add, replace, delete, etc.). The published information. This adversary’s aim is to maximize the possible damage while remaining undetected. Hence, while initially considered as a privacy enhancing technology, a differentially private mechanism can be used by the adversary as a tool to help him/her be undetected. An initial study on this aspect was early proposed from an adversarial perspective. The two conflicting goals of the adversary are formulated, as an optimization problem where maximizing the bias induced by the adversary is the objective function. Nevertheless, the privacy parameter is not considered as a variable in their formulation. Another line of research identifies a connection between differential privacy and robustness against adversarial examples.



Doctorant.e: Zari Oualid