Sur Twitter, un message sur trois a véhiculé de la désinformation aux élections de 2022

En 5 secondes Près du tiers des messages politiques publiés sur Twitter lors des élections québécoises de 2022 contenaient de fausses informations, selon les travaux de la diplômée de l’UdeM Camille Thibault.
Au cours de la campagne électorale de 2022 au Québec, 31,8 % des messages publiés sur Twitter contenaient de la désinformation. Concrètement, de 3000 à 25 000 faux messages circulaient chaque jour sur cette plateforme en lien avec la politique québécoise, représentant de 25 à 39 % de l'ensemble des publications quotidiennes.

Quelque 640 000 faux messages ont circulé sur Twitter durant la campagne électorale québécoise de 2022, soit près du tiers de l'ensemble des publications politiques de la période diffusé sur ce réseau social.  

C'est ce que révèlent les résultats de la recherche réalisée par Camille Thibault dans sa maîtrise en science politique à l'Université de Montréal, après qu’elle eut adapté trois modèles d'intelligence artificielle entraînés à distinguer le vrai du faux, puis appliqué le plus performant à plus de deux millions de messages. 

Jusqu'à tout récemment, une seule recherche avait tenté de mesurer ce phénomène dans l'espace numérique québécois. Publiée en 2023 par le chercheur Mathieu Lavigne et ses collaborateurs de l’Observatoire de l’écosystème médiatique (OEM), l’étude visait à repérer dans les gazouillis des mots-clés associés à des thèmes de désinformation connus, comme fraude électorale.  

Efficace pour détecter les cas les plus évidents, cette approche omettait des contenus plus subtils, tels le sarcasme, les affirmations mêlant le vrai et le faux ou les insinuations sans énoncé explicitement erroné. Selon cette étude, la désinformation représentait de 0,5 à 1 % des échanges quotidiens.  

C'est cette limite méthodologique que Camille Thibault a voulu dépasser, en substituant aux mots-clés l'intelligence artificielle, sous la direction du professeur Jean-François Godbout, du Département de science politique de l’UdeM.

Annoter à la main, un gazouillis à la fois 

Pour améliorer la méthodologie, elle a constitué une base de données de 3051 gazouillis, sélectionnés au hasard sur Twitter à l’aide de la même banque de mots-clés liés à la politique québécoise que celle utilisée par l’étude de l’OEM et qui comportait plus de deux millions de messages publiés par quelque 274 000 utilisateurs au cours de la campagne électorale de 2022. 

Camille Thibault a ainsi validé manuellement le contenu de chaque gazouillis auprès de sources institutionnelles et médiatiques reconnues (gouvernement du Québec, Élections Québec, Radio-Canada, La Presse, Le Devoir) avant de classer chacun comme «vrai» ou «faux» – opération qui lui a pris plus d’un mois! 

Une fois annotée, cette base de données, qu'elle a baptisée QC2022Désinfo, a servi à adapter trois grands modèles d'intelligence artificielle: RoBERTa-Large, Llama2-7b-Chat et Qwen3-0.6B. 

Des algorithmes qui apprennent à reconnaître le faux 

Avant l’entraînement avec la base de données QC2022Désinfo, les performances des trois modèles laissaient place à l’amélioration. Après l’entraînement, leurs résultats ont progressé de façon significative. 

Ainsi, Llama2-7b-Chat a affiché la meilleure exactitude, à 86,1 %, soit un gain de 10 points de pourcentage par rapport à sa performance initiale, comparativement à RoBERTa-Large, qui a amélioré son score de 5 points pour atteindre 84,1 %, et à Qwen3-0.6B, qui a enregistré la progression la plus marquée, passant de 55,6 à 80,8 %. 

Une fois entraîné, le modèle Llama2-7b-Chat a été appliqué aux deux millions de gazouillis du corpus.  

Résultat: 31,8 % des messages publiés pendant la campagne électorale contenaient de la désinformation. Concrètement, de 3000 à 25 000 faux messages circulaient chaque jour sur Twitter en lien avec la politique québécoise, représentant de 25 à 39 % de l'ensemble des publications quotidiennes. 

Ce résultat est par ailleurs cohérent avec le codage manuel réalisé en amont par Camille Thibault. Dans le sous-corpus qu'elle avait annoté à la main, elle avait elle-même repéré environ un tiers de faux messages – sensiblement le même ratio que celui produit par l'algorithme pour l'ensemble du corpus. «Personnellement, je m'attendais à un pourcentage moindre, admet celle qui est aujourd’hui coordonnatrice au sein de l'agence de communication TACT. Cela dit, j'ai travaillé à partir de gazouillis politiques seulement.» Elle insiste sur le fait que ses travaux ne permettent pas de connaître le rayonnement réel ni la propagation de ces messages. 

«Qu'un faux contenu soit publié sur une plateforme ne signifie pas qu'il a été largement vu, encore moins qu'il a été cru ou qu'il a modifié le comportement d'un seul électeur, nuance Jean-François Godbout. On peut penser qu’ils se sont surtout propagés au sein de groupes organisés et fermés.» 

Fraude électorale et méfiance à l’égard des médias

L'analyse du contenu classé «faux» révèle deux grands thèmes de désinformation qui, ensemble, représentent 40 % des contenus erronés détectés.  

Le premier concerne des allégations de fraude électorale, dont la théorie répandue dans certains cercles selon laquelle les crayons de plomb utilisés pour voter permettraient aux autorités de modifier les bulletins. Ces contenus ont connu des pics d'activité à l'approche du vote par anticipation et le jour du scrutin. 

Le second touche à l'intégrité des médias traditionnels, avec des accusations de collusion entre les grands diffuseurs – Radio-Canada et TVA Nouvelles notamment – et la Coalition Avenir Québec, et l'idée que les subventions gouvernementales compromettraient l'indépendance journalistique. 

Peut-on en conclure que la confiance des citoyens à l’égard des institutions s'est érodée? Selon le professeur Godbout, ces thèmes dominent le contenu erroné détecté, mais la recherche n'établit pas leur portée réelle sur l'électorat. «Ce qu'on apprend du projet de Camille, c'est que la désinformation est nettement plus présente que ce que la première recherche laissait entendre, dit-il. Pas nécessairement plus dangereuse, mais plus répandue qu'on le croyait.» 

Le Québec n'est pas à l'abri de la désinformation 

À la lumière de l’étude de Mathieu Lavigne, les milieux de la recherche estimaient que la spécificité linguistique et culturelle du Québec constituait une forme de protection naturelle contre la désinformation, en limitant l'incidence des campagnes de manipulation conçues à l'étranger.  

Les résultats de Camille Thibault invalident cette hypothèse. «Cette barrière ne semble pas exister, indique-t-elle. Et depuis la pandémie, on voit qu'il y a des groupes organisés au Québec qui s'adonnent à la désinformation.» 

Ce constat arrive à un moment opportun: le gouvernement du Québec a adopté au printemps 2025 le projet de loi n° 98, qui vise à criminaliser la diffusion de fausses informations en période électorale et qui entrera en vigueur le 1er juillet prochain, soit trois mois avant les prochaines élections provinciales. Pour la première fois, la recherche offre une base empirique qui justifie, à postériori, cette initiative législative. 

Cela dit, le chemin entre la détection algorithmique et l'application de sanctions pénales est long. «La barre est haute pour en arriver à une sanction pénale, rappelle Jean-François Godbout. L'approche algorithmique pourrait être employée, mais ça prend un accès aux données et une volonté de surveiller l'écosystème.»  

Il souligne également qu'une fausse information n'est pas nécessairement une attaque ciblée contre le processus démocratique: «Certaines informations peuvent être fausses sans être dommageables en soi, conclut-il. Il y a un seuil de tolérance acceptable dans une société démocratique.» 

La base de données annotées QC2022Désinfo est disponible sur GitHub pour les chercheuses et chercheurs désireux de poursuivre ces travaux. 

Demandes médias

Université de Montréal
Tél. : 514 343-6111, poste 67960