• Aucun résultat trouvé

Approches basées sur le texte

Le texte est une des composantes obligatoires dans toutes les publications. Le traitement de cette modalité peut prendre plusieurs formes allant de la représentation utilisant des descripteurs lexicaux, des descripteurs syntaxiques et des descripteurs de sujet.

2.2.1 Descripteurs lexicaux

Les descripteurs lexicaux sont calculés au niveau des mots. On y retrouve les comptages (e.g. nombre de points d’interrogation), les motifs associés aux fausses informations et les lexiques de sentiments.

Une des premières études utilisant ce type de descripteurs est proposée par[CAS- TILLO, MENDOZA et POBLETE 2011] qui s’intéressent à définir des descripteurs de comptage au niveau des messages (e.g. nombre de mots dans le texte) pour classer des tweets selon leur crédibilité (utilisation de deux classes crédible et non crédible). Ces travaux ont montré des différences entre les descripteurs de surface, selon leur propagation, pouvant être utilisé pour la classification. Deux exemples des descrip- teurs les plus discriminants sont "le tweet possède une URL" et "le tweet possède des points d’interrogation".

Basé sur ces travaux, [KWON, CHA, JUNG, W. CHEN et al. 2013] proposent une approche plus orientée sur texte et appliquée cette fois à la problématique de classer un message comme vrai ou faux. Les auteurs recherchent notamment la présence de pronoms de la première personne, pronoms de la deuxième personne et de pronoms de la troisième personne avec par exemple respectivement les pronoms je, tu et il. Certains éléments du texte permettent ainsi d’améliorer les prédictions par rapport aux descripteurs proposés par [CASTILLO, MENDOZA et POBLETE 2011]. Parmi ceux

2.2. Approches basées sur le texte

là, on retrouve la présence de "le tweet possède des mots avec une orientation de sentiment positive".

Ce type de descripteur est intéressant pour la détection de fausses informations, car il n’est pas possible de se baser exclusivement sur le contenu du message. L’entrai- nement d’un classifieur en utilisant exclusivement le contenu des messages pourrait engendrer un apprentissage basé sur les termes spécifiques aux fausses informations (e.g. une entité nommée particulière liée à une fausse information présente dans le jeu de données d’apprentissage). L’utilisation de descripteurs statistiques permet l’ap- prentissage de règle du type :

"Les publications fausses sont généralement plus courtes que les informa- tions vraies."

2.2.2 Représentation basée sur le contenu

[Z. ZHAO, RESNICKet MEI 2015]recherchent une forme d’interrogation par l’auteur et de correction d’une autre publication des messages de fausses informations. Les auteurs extraient les éléments les plus discriminants pour chaque classe (vrai ou faux) en utilisant une approche basée les caractéristiques duTerm Frequencyou fréquence

du terme (TF) des messages. Cette liste d’indices est ensuite étudiée par des experts qui sélectionnent des phrases indépendantes des événements comme modèles lexi- caux finaux pour les fausses informations. Ces travaux présentent l’avantage de passer par une phase d’analyse par des experts ce qui renforce la cohérence des modèles lexicaux trouvés.

Les mots lexicaux exprimant des sentiments spécifiques sont également des in- dices très importants pour caractériser le texte. Dans [CASTILLO, MENDOZA et PO- BLETE 2011], les marques émotionnelles (point d’interrogation et point d’exclamation) et les émoticônes sont considérés comme des caractéristiques textuelles.

L’émotion véhiculée dans le texte est aussi étudiée par [KWON, CHA, JUNG, W.

CHEN et al. 2013] où de nombreuses caractéristiques lexicales associées aux senti- ments sont proposées sur la base de dictionnaires. Après une étude comparative de ces caractéristiques, les auteurs constatent que certaines catégories de sentiments sont des caractéristiques distinctives de la détection des fausses informations, notam- ment les mots à effet positif, les mots d’action cognitive et les mots d’action provisoire. Ce type d’approches peut nous permettre d’apprendre des motifs propres aux

textes associés à un fausse information comme par exemple : "C’est photoshopé !"

2.2.3 Utilisation de réseaux de neurones

L’utilisation de représentations par plongement de mots est de plus en plus cou- rante. Ces représentations sont obtenues avec des réseaux de neurones entraînés pour reconstruire le contexte linguistique des mots [MIKOLOV et al. 2013]. Plusieurs travaux se sont inspirés de ces représentations pour la détection de fausses informa- tions.

Certains mots malveillants dans le contenu peuvent être fortement liés à la caté- gorie des fausses informations. Pour mieux comprendre les mots auxquels le modèle prête plus d’attention, [T. CHEN et al. 2017]proposent une utilisation d’un mécanisme d’attention. L’une des hypothèses de leur travail est que les caractéristiques textuelles des fausses informations peuvent changer d’importance avec le temps et qu’il est cru- cial de déterminer lesquelles sont les plus importantes pour la tâche de détection. Semblable à[MAet al. 2016], ils regroupent d’abord les publications par intervalle de temps. À chaque pas de temps, l’état caché d’unRecurrent Neural Networkou réseau

de neurones récurrents (RNN) se verra attribuer un paramètre de pondération pour mesurer son importance et sa contribution aux résultats. La performance des expé- riences démontre l’efficacité du mécanisme d’attention et montre que la plupart des mots liés à l’événement lui-même sont moins utilisés que les mots exprimant le doute, l’esquive et la colère des utilisateurs causés par la fausse information.

[NGUYEN, C. LI et NIEDERÉE 2017]se concentrent sur la détection au début de la propagation de la fausses informations et proposent un modèle basé sur unConvolu- tional Neural Networkou réseau neuronal convolutif (CNN) et un RNN comme montré

dans la figure 2.3. Le CNN est appliquée sur les tweets pour créer une séquence de représentations de phrases de haut niveau afin d’apprendre les représentations ca- chées de tweets liés à des fausses informations et ainsi prédire la véricité au niveau de chaque tweet. Ensuite, la partie de RNN est utiliser pour analyser les séries tem- porelles (séries de prédictions au niveau des publications) obtenues par CNN pour obtenir une prédiction finale.

Une des limites à l’utilisation de ces approches par plongement de mots pour nos travaux est un problème courant des réseaux sociaux, c’est à dire la capacité pauvre des réseaux de neurones à expliquer le choix de la classification. Or, il s’agit d’un