Projet de recherche doctoral numero :8302

Description

Date depot: 7 avril 2022
Titre: Mitigation strategies against Fake News diffusion in online social platforms
Directeur de thèse: Anastasios GIOVANIDIS (LIP6)
Encadrant : Vincent GAUTHIER (SAMOVAR)
Domaine scientifique: Sciences et technologies de l'information et de la communication
Thématique CNRS : Systèmes et réseaux

Resumé: Fake News (FN) are claims that are factually wrong and that have the intention to mislead an audience (see [1] and references therein). This malicious behaviour is extremely prevalent on social media platforms like Twitter and Facebook. In fact, the majority of people with online access will partly or fully be informed through these platforms, posing a serious risk on how social opinions are formed. For example, it has been reported a deluge of misinformation related to Covid-19 [2] and vaccines [3]. Equally important is the case of electoral campaigns: the authors of [4] showed that among 171 million tweets related to the US 2016 elections, 25% of them were FN; and similar observations have been observed in the French and Italian elections. The word “infodemic” has been coined to describe this pandemic of FN, which indeed have been shown to propagate faster, and deeper than real news [5]. Studying the spreading of FN and their quick detection is a subject of utmost importance. Objectives: In this thesis we aim to study the principles that rule the diffusion of Fake News inside social platforms. In particular, we have the following two main objectives: (I) to characterise diffusion patterns and classify/predict FN from diffusion paths, and (II) to propose novel mitigation strategies by means of learning algorithms using massive interactions traces. Method and Novelty: Contrary to most literature devoted to the study of FN that heavily rely on natural language processing or sentiment analysis methods, in this thesis we propose to study the diffusion dynamics of FN inside the social graph. Our hypothesis is that FN can be characterised by the structural and dynamical interactions in the underlying social graph: namely, that FN will transit through specific diffusion paths or cause super-spreaders to be active at specific time intervals. The novelty of our approach will thus come from the use of original models of social platforms [6] as well as graph-related tools [8], both recently developed in LIP6, that can naturally find application in the analysis of diffusion and the proposal of mitigation control policies. Besides, the question how to fight against Fake News has not been sufficiently studied either, and there are no realistic policies suggested until now. Specific Aims: (I) Characterise the diffusion of FN: This part will answer the question why and how misinformation can trigger a large sharing cascade among the users on social media. Questions related to user and/or activity clustering are very pertinent, because there is a relation of FN spread with filter bubbles and polarisation of opinions. To achieve this, we will adapt our models from [6] but we will also use ideas from the LIP6-ComplexNetworks team, which introduced Link Streams to model and study interactions over time and diffusion paths formed by them [8]. (II) Study ways to mitigate FN: In this part we will mostly study centralised policies (from the social-platform perspective). Existing works [7] propose to dynamically incentivise users to spread true news. In our opinion, however, the platform has a more important role in the control of FN, because it can intervene on user feeds to either filter FNs or to promote real news. Such platform-based policies can be cast in the framework of Reinforcement Learning; the platform can have partial observation and intervene to correct with its own advertising or filtering policies. DATA: Datasets come primarily from Twitter, see CREDBANK and FakeNewsNet in [1], Covid19 Infodemics Observatory in [2]. Two datasets: Recent Fake News and 2011 Tohoku earthquake and tsunami in Murayama et al (2021) Plos one. REFERENCES [1] Kai Shu et al, (2017). “Fake News Detection on Social Media: A Data Mining Perspective,” SIGKDD Explor. Newsl. 19, 1 (June 2017), 22–36. [2] V. d'Andrea, et al (2022) “Epidemic proximity and imitation dynamics drive infodemic waves during the COVID-19 pandemic”, Phys. Rev. Research, vol.4, iss.1, pp.013158-(1-10), [3] A. Ghaddar, et al (2022), “Conspiracy beliefs and vaccination intent for COVID-19 in an infodemic”, PLoS ONE 17(1) [4] A. Bovet, H.A. Makse (2019), “Influence of fake news in Twitter during the 2016 US presidential election”, Nature Communications, vol.10, no.7 [5] V. Soroush, R. Deb and A. Sinan, (2018) “The spread of true and false news online”, Science, vol. 359, no. 6380, pp.1146–1151 [6] A. Giovanidis, B. Baynat, C. Magnien and A. Vendeville, (2021) "Ranking Online Social Users by Their Influence," in IEEE/ACM Transactions on Networking, vol. 29, no. 5 [7] Mahak Goindani, Jennifer Neville, (2020) “Social Reinforcement Learning to Combat Fake News Spread”, Proceedings of The 35th Uncertainty in Artificial Intelligence Conference [8] M. Latapy, T. Viard, Cl. Magnien, “Stream graphs and link streams for the modeling of interactions over time”. Soc. Netw. Anal. Min. 8(1): 61:1-61:29 (2018)

Résumé dans une autre langue: Les fausses nouvelles (FN) sont des affirmations qui sont factuellement erronées et qui ont l'intention d'induire un public en erreur (voir [1] et les références qu'il contient). Ce comportement malveillant est extrêmement répandu sur les plateformes de médias sociaux comme Twitter et Facebook. En effet, la majorité des personnes ayant un accès en ligne seront partiellement ou entièrement informées via ces plateformes, ce qui pose un risque sérieux sur la façon dont les opinions sociales se forment. Par exemple, il a été rapporté un déluge de désinformation liée au Covid-19 [2] et aux vaccins [3]. Tout aussi important est le cas des campagnes électorales : les auteurs de [4] ont montré que sur 171 millions de tweets liés aux élections américaines de 2016, 25 % d'entre eux étaient FN ; et des observations similaires ont été observées lors des élections françaises et italiennes. Le mot « infodémie » a été inventé pour décrire cette pandémie de FN, dont il a en effet été démontré qu'elle se propageait plus rapidement et plus profondément que les vraies nouvelles [5]. L'étude de la propagation des FN et leur détection rapide est un sujet de la plus haute importance. Objectifs : Dans cette thèse, nous visons à étudier les principes qui régissent la diffusion de Fake News à l'intérieur des plateformes sociales. En particulier, nous avons les deux principaux objectifs suivants : (I) caractériser les modèles de diffusion et classer/prédire le FN à partir des chemins de diffusion, et (II) proposer de nouvelles stratégies d'atténuation au moyen d'algorithmes d'apprentissage utilisant des traces d'interactions massives. Méthode et nouveauté : Contrairement à la plupart des publications consacrées à l'étude du FN qui s'appuient fortement sur des méthodes de traitement du langage naturel ou d'analyse des sentiments, nous proposons dans cette thèse d'étudier la dynamique de diffusion du FN à l'intérieur du graphe social. Notre hypothèse est que le FN peut être caractérisé par les interactions structurelles et dynamiques dans le graphe social sous-jacent : à savoir, que le FN transitera par des voies de diffusion spécifiques ou provoquera l'activité des super-diffuseurs à des intervalles de temps spécifiques. La nouveauté de notre approche viendra donc de l'utilisation de modèles originaux de plateformes sociales [6] ainsi que d'outils liés aux graphes [8], tous deux récemment développés au LIP6, qui peuvent naturellement trouver application dans l'analyse de la diffusion et la proposition des politiques de contrôle des mesures d'atténuation. Par ailleurs, la question de savoir comment lutter contre les Fake News n'a pas non plus été suffisamment étudiée, et aucune politique réaliste n'a été suggérée jusqu'à présent.