Le détournement de mots-clics (hashtag hijacking) consiste à ajouter des mots-clics populaires qui n’ont pas nécessairement de lien avec sa publication afin que des utilisateurs lambda y soient renvoyés. «QAnon recherchait toute forme d’engagement, qu’il soit favorable ou critique. Chaque interaction participe à la fois à la cohésion du noyau existant et à l’élargissement potentiel de la base de soutien», résume Francesco C. Campisi.
Les chercheurs ont analysé plus de 400 000 micromessages publiés entre 2020 et 2021. Ces dates ont été sélectionnées parce qu’elles coïncidaient avec des évènements importants dans l’actualité qui ont fait parler dans les cercles d’extrême droite, du meurtre de George Floyd et des manifestations de Black Lives Matter à l’assaut du Capitole en passant par la pandémie de COVID-19 et les élections présidentielles américaines. «Nous avons arrêté notre récolte après janvier 2021, puisque Twitter a supprimé plusieurs comptes en lien avec l’insurrection du 6 janvier, dans laquelle QAnon a joué un grand rôle», précise Francesco C. Campisi. Les publications retenues devaient contenir des mots-clics liés à QAnon ou mentionner un compte associé à cette mouvance.
Une revue de la littérature a permis de catégoriser des mots-clics: certains visaient le détournement, d’autres suivaient une logique interne (par exemple #WWG1WGA, qui fait référence au slogan Là où l’on va, nous allons tous de QAnon) ou encore avaient une saveur complotiste. Les chercheurs ont ensuite analysé si ce détournement suscitait plus de formes d’engagement: J’aime, republication, commentaires, etc.
S’insérer dans le débat public
Dans plusieurs cas, les mots-clics associés au détournement s’inséraient dans des conversations internes autour de diverses théories du complot. Dans d’autres, le détournement de mots-clics servait à se glisser dans des débats publics existants pour tenter d’en redéfinir le sens. Malgré tout, le procédé n’expliquait que de 4 à 6 % de l’engagement. «Plus de 90 % de l’engagement et de la visibilité ne sont donc pas influencés par les catégories de mots-clics utilisés», indique Francesco C. Campisi.
Bref, s’insérer dans des conversations n’avait pas un effet significatif. «Le fait d’être présent ne suffit pas à convaincre un auditoire», dit-il.
Ainsi, cette tentative de manipuler les algorithmes à son avantage fonctionne peu. «Les algorithmes interprètent une série de signaux et le fait de consulter un mot-clic particulier est une goutte d’eau dans l’océan. C’est sans compter que les algorithmes sont de véritables boîtes noires et qu’ils changent constamment», croit Francis Fortin.
Faire le pont entre le virtuel et le réel
«Une des limites de notre étude, c’est que nous ne savons pas comment ces consultations de mots-clics influencent l’individu qui ne s’engage jamais, mais qui peut-être se fait une opinion au fil de ses lectures», constate par ailleurs Francesco C. Campisi.
C’est d’ailleurs ce qu’il aimerait explorer. «Je travaille sur une analyse qui vise à tester empiriquement la probabilité de terrorisme stochastique, qui n’est pas du terrorisme en soi, mais plutôt l’idée que certains récits haineux, structurés d’une certaine manière, augmentent les possibilités d’attaques de type “loup solitaire”», mentionne Francesco C. Campisi, qui poursuit un postdoctorat à l’Université Simon Fraser.
Parce que, si l’on ne parle plus de QAnon de la même façon aujourd’hui, la mouvance est à l’origine de plusieurs théories dans la complosphère. Et depuis le rachat de Twitter – devenue X – par Elon Musk, les contenus extrémistes sont montés en flèche. «Tout le monde est exposé à ce type de contenu et, malheureusement, on ne peut pas se fier aux plateformes pour le limiter», conclut-il.