Quelque 640 000 faux messages ont circulé sur Twitter durant la campagne électorale québécoise de 2022, soit près du tiers de l'ensemble des publications politiques de la période diffusé sur ce réseau social.
C'est ce que révèlent les résultats de la recherche réalisée par Camille Thibault dans sa maîtrise en science politique à l'Université de Montréal, après qu’elle eut adapté trois modèles d'intelligence artificielle entraînés à distinguer le vrai du faux, puis appliqué le plus performant à plus de deux millions de messages.
Jusqu'à tout récemment, une seule recherche avait tenté de mesurer ce phénomène dans l'espace numérique québécois. Publiée en 2023 par le chercheur Mathieu Lavigne et ses collaborateurs de l’Observatoire de l’écosystème médiatique (OEM), l’étude visait à repérer dans les gazouillis des mots-clés associés à des thèmes de désinformation connus, comme fraude électorale.
Efficace pour détecter les cas les plus évidents, cette approche omettait des contenus plus subtils, tels le sarcasme, les affirmations mêlant le vrai et le faux ou les insinuations sans énoncé explicitement erroné. Selon cette étude, la désinformation représentait de 0,5 à 1 % des échanges quotidiens.
C'est cette limite méthodologique que Camille Thibault a voulu dépasser, en substituant aux mots-clés l'intelligence artificielle, sous la direction du professeur Jean-François Godbout, du Département de science politique de l’UdeM.
Annoter à la main, un gazouillis à la fois
Pour améliorer la méthodologie, elle a constitué une base de données de 3051 gazouillis, sélectionnés au hasard sur Twitter à l’aide de la même banque de mots-clés liés à la politique québécoise que celle utilisée par l’étude de l’OEM et qui comportait plus de deux millions de messages publiés par quelque 274 000 utilisateurs au cours de la campagne électorale de 2022.
Camille Thibault a ainsi validé manuellement le contenu de chaque gazouillis auprès de sources institutionnelles et médiatiques reconnues (gouvernement du Québec, Élections Québec, Radio-Canada, La Presse, Le Devoir) avant de classer chacun comme «vrai» ou «faux» – opération qui lui a pris plus d’un mois!
Une fois annotée, cette base de données, qu'elle a baptisée QC2022Désinfo, a servi à adapter trois grands modèles d'intelligence artificielle: RoBERTa-Large, Llama2-7b-Chat et Qwen3-0.6B.
Des algorithmes qui apprennent à reconnaître le faux
Avant l’entraînement avec la base de données QC2022Désinfo, les performances des trois modèles laissaient place à l’amélioration. Après l’entraînement, leurs résultats ont progressé de façon significative.
Ainsi, Llama2-7b-Chat a affiché la meilleure exactitude, à 86,1 %, soit un gain de 10 points de pourcentage par rapport à sa performance initiale, comparativement à RoBERTa-Large, qui a amélioré son score de 5 points pour atteindre 84,1 %, et à Qwen3-0.6B, qui a enregistré la progression la plus marquée, passant de 55,6 à 80,8 %.
Une fois entraîné, le modèle Llama2-7b-Chat a été appliqué aux deux millions de gazouillis du corpus.
Résultat: 31,8 % des messages publiés pendant la campagne électorale contenaient de la désinformation. Concrètement, de 3000 à 25 000 faux messages circulaient chaque jour sur Twitter en lien avec la politique québécoise, représentant de 25 à 39 % de l'ensemble des publications quotidiennes.
Ce résultat est par ailleurs cohérent avec le codage manuel réalisé en amont par Camille Thibault. Dans le sous-corpus qu'elle avait annoté à la main, elle avait elle-même repéré environ un tiers de faux messages – sensiblement le même ratio que celui produit par l'algorithme pour l'ensemble du corpus. «Personnellement, je m'attendais à un pourcentage moindre, admet celle qui est aujourd’hui coordonnatrice au sein de l'agence de communication TACT. Cela dit, j'ai travaillé à partir de gazouillis politiques seulement.» Elle insiste sur le fait que ses travaux ne permettent pas de connaître le rayonnement réel ni la propagation de ces messages.
«Qu'un faux contenu soit publié sur une plateforme ne signifie pas qu'il a été largement vu, encore moins qu'il a été cru ou qu'il a modifié le comportement d'un seul électeur, nuance Jean-François Godbout. On peut penser qu’ils se sont surtout propagés au sein de groupes organisés et fermés.»