Un lien douteux partagé par un proche, une manchette trop spectaculaire pour être vraie, une vidéo qui semble truquée sans qu'on puisse en être certain… À l'heure où la désinformation en ligne prend des formes de plus en plus difficiles à détecter, les outils conçus pour nous aider à démêler le vrai du faux se multiplient. Mais sont-ils vraiment à la hauteur?
Pas vraiment, selon Dorsaf Sallami, qui s'est penchée sur ces outils – et sur leurs limites – dans son doctorat réalisé au Département d'informatique et de recherche opérationnelle de l'Université de Montréal.
Ses recherches l’ont menée à la conclusion que les systèmes d'intelligence artificielle (IA) conçus pour repérer la désinformation comportent des failles importantes que leurs performances techniques tendent à occulter.
Elle en fait la démonstration dans un article publié dans les actes d’une conférence internationale sur l'intelligence artificielle, l'éthique et la société, qu’elle cosigne avec sa directrice de recherche Esma Aïmeur et le professeur Gilles Brassard.
Un miroir, pas un détecteur de vérité
«Les systèmes d’IA actuels de détection des fausses nouvelles reposent sur un malentendu fondamental, écrit-elle. Quand l’un d’eux signale un contenu comme faux, il ne vérifie pas les faits comme le ferait un ou une journaliste. Il calcule des probabilités à partir des données avec lesquelles on l'a entraîné.»
Ainsi, ces systèmes de repérage ne font que refléter ce qu'on leur a montré – tel un miroir – avec les biais et les omissions que cela comporte.
Pour Dorsaf Sallami, il est même paradoxal que les grands acteurs du numérique investissent massivement dans ce type de détection: Meta étiquette le contenu qui correspond à des vérifications existantes, Google a lancé un prototype basé sur son modèle Gemini et X déploie Grok pour analyser en temps réel ce qui circule sur sa plateforme.
«L'artillerie est impressionnante, mais à quoi sert un système qui obtient 95 % de précision en laboratoire s’il ne fonctionne pas correctement dans des conditions réelles, surtout s'il viole la vie privée des utilisateurs et défavorise certains médias ou peut être détourné pour censurer l'opposition politique?» s’interroge-t-elle.
De fait, dans les évaluations d’efficacité de détection, on compare les systèmes entre eux à l'aide d'indicateurs techniques mesurés dans des conditions contrôlées, un peu comme si l’on classait des voitures uniquement selon leur vitesse de pointe, sans se demander si elles sont sécuritaires, accessibles ou polluantes.