#QAnon: les tactiques d’influence de QAnon

En 5 secondes #Love, #vote, #child. Mots-clics inoffensifs ou tactique de détournement conspirationniste? Le doctorant Francesco C. Campisi et son directeur Francis Fortin ont voulu en avoir le cœur net.
L'étude démontre que tenter de manipuler les algorithmes à son avantage fonctionne peu.

«Quand on pense aux extrémistes, on pense souvent au néonazisme. Pourtant, il existe plusieurs autres groupes déviants qui, s’ils ne sont pas violents, peuvent mener vers l’extrémisme», affirme Francesco C. Campisi, chargé de cours à l’École de criminologie de l’Université de Montréal. Il s’est intéressé, dans sa thèse de doctorat, à la présence en ligne de certains groupes déviants, notamment QAnon. 

Cette mouvance conspirationniste qui a émergé aux États-Unis à la fin des années 2010 est devenue visible lors de l’assaut du Capitole le 6 janvier 2021. «C’est un mouvement particulier qui est difficile à cerner, mais probablement précurseur de ce qui allait suivre avec Donald Trump», ajoute Francis Fortin, professeur à l’École de criminologie, qui supervisait alors le doctorant. 

Plutôt qu’une structure hiérarchique, ce mouvement est nébuleux. «C’est un écosystème d’information. Les discussions aident à structurer le groupe», poursuit-il. Son ancien étudiant et lui se sont penchés sur le détournement de mots-clics sur Twitter. Les résultats de leur analyse viennent d’être publiés dans la revue Technology in Society.

Visibiliser un discours

Le détournement de mots-clics (hashtag hijacking) consiste à ajouter des mots-clics populaires qui n’ont pas nécessairement de lien avec sa publication afin que des utilisateurs lambda y soient renvoyés. «QAnon recherchait toute forme d’engagement, qu’il soit favorable ou critique. Chaque interaction participe à la fois à la cohésion du noyau existant et à l’élargissement potentiel de la base de soutien», résume Francesco C. Campisi. 

Les chercheurs ont analysé plus de 400 000 micromessages publiés entre 2020 et 2021. Ces dates ont été sélectionnées parce qu’elles coïncidaient avec des évènements importants dans l’actualité qui ont fait parler dans les cercles d’extrême droite, du meurtre de George Floyd et des manifestations de Black Lives Matter à l’assaut du Capitole en passant par la pandémie de COVID-19 et les élections présidentielles américaines. «Nous avons arrêté notre récolte après janvier 2021, puisque Twitter a supprimé plusieurs comptes en lien avec l’insurrection du 6 janvier, dans laquelle QAnon a joué un grand rôle», précise Francesco C. Campisi. Les publications retenues devaient contenir des mots-clics liés à QAnon ou mentionner un compte associé à cette mouvance.

Une revue de la littérature a permis de catégoriser des mots-clics: certains visaient le détournement, d’autres suivaient une logique interne (par exemple #WWG1WGA, qui fait référence au slogan Là où l’on va, nous allons tous de QAnon) ou encore avaient une saveur complotiste. Les chercheurs ont ensuite analysé si ce détournement suscitait plus de formes d’engagement: J’aime, republication, commentaires, etc. 

S’insérer dans le débat public

Dans plusieurs cas, les mots-clics associés au détournement s’inséraient dans des conversations internes autour de diverses théories du complot. Dans d’autres, le détournement de mots-clics servait à se glisser dans des débats publics existants pour tenter d’en redéfinir le sens. Malgré tout, le procédé n’expliquait que de 4 à 6 % de l’engagement. «Plus de 90 % de l’engagement et de la visibilité ne sont donc pas influencés par les catégories de mots-clics utilisés», indique Francesco C. Campisi. 

Bref, s’insérer dans des conversations n’avait pas un effet significatif. «Le fait d’être présent ne suffit pas à convaincre un auditoire», dit-il.

Ainsi, cette tentative de manipuler les algorithmes à son avantage fonctionne peu. «Les algorithmes interprètent une série de signaux et le fait de consulter un mot-clic particulier est une goutte d’eau dans l’océan. C’est sans compter que les algorithmes sont de véritables boîtes noires et qu’ils changent constamment», croit Francis Fortin. 

Faire le pont entre le virtuel et le réel

«Une des limites de notre étude, c’est que nous ne savons pas comment ces consultations de mots-clics influencent l’individu qui ne s’engage jamais, mais qui peut-être se fait une opinion au fil de ses lectures», constate par ailleurs Francesco C. Campisi.

C’est d’ailleurs ce qu’il aimerait explorer. «Je travaille sur une analyse qui vise à tester empiriquement la probabilité de terrorisme stochastique, qui n’est pas du terrorisme en soi, mais plutôt l’idée que certains récits haineux, structurés d’une certaine manière, augmentent les possibilités d’attaques de type “loup solitaire”», mentionne Francesco C. Campisi, qui poursuit un postdoctorat à l’Université Simon Fraser. 

Parce que, si l’on ne parle plus de QAnon de la même façon aujourd’hui, la mouvance est à l’origine de plusieurs théories dans la complosphère. Et depuis le rachat de Twitter – devenue X – par Elon Musk, les contenus extrémistes sont montés en flèche. «Tout le monde est exposé à ce type de contenu et, malheureusement, on ne peut pas se fier aux plateformes pour le limiter», conclut-il.

Demandes médias

Université de Montréal
Tél. : 514 343-6111, poste 67960