Projet de recherche doctoral numero :8701

Description

Date depot: 4 avril 2024
Titre: Apprentissage interactif de spécifications éthiques
Directeur de thèse: Gauvain BOURGNE (LIP6)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Intelligence artificielle

Resumé: En philosophie, dans le cadre de l'éthique normative, qui s'attache à définir les principes devant régler une conduite juste, on distingue différents courants selon ce qui est mis en avant dans ces prises de décisions. En particulier, certaines approches, dites déontologiques, tentent de définir directement les conduite juste en s'appuyant sur des notions de Devoir, typiquement traduit par des code de conduite, tandis que d'autres approches, comme les approches conséquentialistes, se basent sur une notion intermédiaire de Bien pour évaluer ce qui est juste, favorisant typiquement les actions maximisant le bien général qui résulte de nos actes. Certaines de ces dernières considèrent aussi un pluralisme des valeurs permettant d'apprécier le Bien, certaines de ces valeurs pouvant être parfois être considérée comme supérieures à d'autres. Différents cadres de raisonnement éthique ont été proposés pour modéliser ces principes éthiques. Tous ces cadres partagent néanmoins le besoin, pour une application donnée, de traduire ces notions de Bien ou de Devoir dans le cadre applicatif pour représenter explicitement les prescriptions éthiques mises en oeuvre. Il peut s'agir de théories de la valeur, qui qualifient et/ou quantifient le Bien ou le Mal associés à des actes ou leurs conséquences, ou de codes de conduites spécifique au contexte applicatif décrivant ce qu'il est permis, requis ou interdit de faire. Cette modélisation des spécifications éthiques, propre à chaque application est cruciale, car c'est là que se définissent les préférences éthiques mises en oeuvre. Il est donc important que ces spécifications soient transparentes, explicables et révisables. En particulier, c'est dans ces spécifications que l'on trouve les quantifications du bien, la définition des codes de conduite, ou les éventuelles priorités entre valeurs. L'objet de ce projet doctoral est donc de proposer des outils basés sur l'apprentissage interprétable et/ou les méthodes d'élicitation de préférences pour faciliter la construction de ces spécifications éthiques et permettre leur raffinement progressif pour correspondre aux préférences éthiques de l'utilisateur. Il s'agit de prévoir des interactions pour permettre d'amender les spécification produites par l'ajout de nouvelles contraintes ou d'exemples supplémentaires.

Résumé dans une autre langue: In philosophy, within the framework of normative ethics, which seeks to define the principles governing right conduct, various currents are distinguished based on what is emphasized in these decision-making processes. In particular, some approaches, called deontological, attempt to directly define the Right by relying on notions of Duty, typically translated through codes of conduct, while other approaches, such as consequentialist approaches, rely on an intermediary notion of Good to evaluate which actions are right or wrong, typically favoring actions that maximize the general good resulting from our deeds. Some of the latter also consider a pluralism of values ​​allowing the appreciation of the Good, some of these values ​​sometimes being considered superior to others. Different frameworks of ethical reasoning have been proposed to model these ethical principles. However, all these frameworks share the need, for a given application, to translate these notions of Good or Duty into the applicative domain to explicitly represent the ethical prescriptions implemented. These can be value theories that qualify and/or quantify the Good or Bad associated with actions or their consequences, or specific codes of conduct within the applicative context describing what is permitted, required, or forbidden. This modeling of ethical specifications, specific to each application, is crucial because it is where the implemented ethical preferences are defined. It is therefore important that these specifications be transparent, explainable, and revisable. In particular, it is in these specifications that quantifications of the good are found, as well as the definition of codes of conduct, or any priorities between values. The objective of this doctoral project is therefore to propose tools based on interpretable learning and/or preference elicitation methods to facilitate the construction of these ethical specifications and allow their progressive refinement to match the user's ethical preferences. This involves foreseeing interactions to allow for amending the specifications produced by the addition of new constraints or additional examples.