Description
Date depot: 18 janvier 2024
Titre: Apprentissage profond interprétable pour la détection de biomarqueurs multi-sources et la stratification des patients
Directeur de thèse:
Edi PRIFTI (UMMISCO)
Directeur de thèse:
Jean-Daniel ZUCKER (UMMISCO)
Encadrante :
Farida ZEHRAOUI (IBISC)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Intelligence artificielle
Resumé: Cette thèse de doctorat se penche sur l'apprentissage profond (DL) interprétable dans les applications médicales, en se concentrant sur la détection de biomarqueurs multi-sources et la stratification des patients. L'étude aborde le défi de la nature boîte noire du DL en médecine, soulignant la nécessité d'une interprétabilité des modèles pour une prise de décision clinique éclairée. Les objectifs de recherche comprennent le développement de l'interprétabilité dans les modèles DL pour les données omiques et cliniques multimodales, l'extraction de biomarqueurs spécifiques de diverses sources de données, et la stratification des patients à l'aide de ces biomarqueurs. Les méthodologies impliquent une revue de la littérature, le développement de modèles, l'extraction de biomarqueurs et la collaboration avec des équipes cliniques. Les résultats attendus comprennent une compréhension approfondie des défis de l'interprétabilité du DL en médecine, un ensemble de biomarqueurs aidant dans les soins aux patients, des méthodes de stratification des patients, et des directives pour les praticiens médicaux. Le projet implique une collaboration avec diverses équipes et offre un environnement de recherche dynamique et impactant, avec la possibilité de publier des résultats et d'élargir l'expertise dans un cadre scientifique stimulant à Paris.
Résumé dans une autre langue: This PhD thesis explores interpretable deep learning (DL) in medical applications, focusing on multi-source biomarker detection and patient stratification. The study addresses the challenge of the black-box nature of DL in medicine, emphasizing the need for model interpretability for informed clinical decision-making. The research objectives include developing interpretability in DL models for multi-modal omics and clinical data, extracting specific biomarkers from various data sources, and stratifying patients using these biomarkers. Methodologies involve a literature review, model development, biomarker extraction, and collaboration with clinical teams. Expected outcomes include a deeper understanding of DL interpretability challenges in medicine, a set of biomarkers aiding in patient care, patient stratification methods, and guidelines for medical practitioners. The project involves collaboration with various teams and offers a dynamic and impactful research environment, with the opportunity to publish findings and expand expertise in a stimulating scientific setting in Paris.
Doctorant.e: Perciballi Giulia