L’IA pour flairer les arnaques en ligne

En 5 secondes Une nouvelle étude révèle que les agents conversationnels nourris par l’IA peuvent être de bons outils pour repérer les contenus Web frauduleux.
La chercheuse a remarqué que l’IA s’appuie sur des indices plus fins que ceux qu’un utilisateur moyen pourrait déceler.

«Rendement du capital investi garanti à 100 %! Offre limitée, achetez maintenant!» 

Qui n’a jamais reçu ce genre de courriel promettant des gains rapides? Qui n’est jamais tombé sur un site Internet faisant miroiter des réductions plus qu’alléchantes?  

La prolifération des escroqueries en ligne est devenue une préoccupation réelle, particulièrement à l’ère de l’intelligence artificielle (IA). Les internautes malveillants utilisent désormais des techniques sophistiquées pour créer des stratagèmes frauduleux convaincants, ciblant les personnes vulnérables grâce par exemple à des approches personnalisées sur les réseaux sociaux. 

Les exemples les plus courants sont les usurpations d’identité, où des célébrités sont utilisées pour promouvoir de faux produits ou de fausses plateformes d’investissement ou encore pour nouer des relations amoureuses avec leurs victimes afin de leur soutirer de l’argent. 

Bonne nouvelle, voilà que ces mêmes technologies pourraient aider le commun des mortels à détecter les arnaques sur le Web. C’est du moins le résultat d’une étude menée par Esma Aïmeur, professeure au Département d’informatique et de recherche opérationnelle de l’Université de Montréal, et son étudiante de doctorat Yuan-Chen Chang. 

L’IA contre l’IA 

L’équipe de recherche a mis à l’épreuve plusieurs grands modèles de langage (ou LLM pour large language model) – les mêmes qui alimentent des outils comme ChatGPT, Copilot, Gemini ou Claude – pour analyser 400 sites Web, dont une moitié était frauduleuse.  

Dans ce groupe se trouvaient de faux sites d’investissement promettant des rendements mirobolants et d’autres vendant des produits ou des services inexistants. Les textes et les captures d’écran des pages ont été soumis aux LLM, accompagnés d’une simple consigne: «Décide si ce site est une arnaque et explique pourquoi.» 

Selon les résultats, Claude 3.5 et GPT-4o sont les grands modèles qui ont réussi à repérer la majorité des sites frauduleux, «avec une bonne précision», note Esma Aïmeur.  

En examinant les explications fournies par les modèles, la chercheuse a remarqué que l’IA s’appuie sur des indices plus fins que ceux qu’un utilisateur moyen pourrait déceler, comme des URL avec des fautes de frappe, des promesses irréalistes, l’absence de mentions légales, des invitations pressantes, des avis trop positifs. 

Fait encourageant: les LLM sont de plus en plus accessibles. Quiconque peut copier-coller des liens suspects dans des outils publics comme ChatGPT ou Copilot afin d’obtenir une analyse immédiate des risques basée sur la structure du lien ou sur les informations disponibles. Les utilisateurs peuvent également télécharger des captures d’écran de messages et de sites douteux pour les faire examiner, ajoute la professeure.  

 

Une arme de plus, non sans défauts 

Or, tout n’est pas parfait, indique Esma Aïmeur. «Parfois, l’IA hallucine ou se laisse berner par des sites bien construits qui affichent de fausses coordonnées ou des témoignages inventés. Et il ne faut pas oublier que les mêmes outils pourraient être utilisés par les escrocs eux-mêmes pour rendre leurs arnaques encore plus convaincantes», met-elle en garde. 

Pour la professeure, cela souligne encore davantage la nature à double tranchant de l’IA et l’importance de définir des cadres éthiques parallèlement aux progrès technologiques. 

En définitive, cette étude montre que les outils d’IA peuvent devenir des alliés rapides et gratuits pour lutter contre la cybercriminalité. En s’appuyant sur ces résultats, la chercheuse, en collaboration avec des collègues de l’Université catholique de Louvain, explore également comment ces mêmes modèles peuvent contribuer à détecter des menaces internes au sein des organisations, élargissant ainsi la portée de la lutte contre les cybermenaces. À condition, toutefois, d’être sensible à l’existence de ces risques, de se tenir aux aguets et d’avoir le réflexe d’utiliser ces plateformes. 

 

Prudence et ouverture 

«Il est facile de croire que seules les personnes cupides ou imprudentes se font piéger par les escroqueries, mais ce n’est pas vrai, avertit Esma Aïmeur. Les escrocs sont très créatifs et inventent constamment de nouvelles façons de tromper, jouant avec nos émotions pour nous prendre au dépourvu. Considérez les escrocs comme des dramaturges modernes. Ils élaborent soigneusement des histoires et des scénarios, chacun étant conçu pour toucher les cordes sensibles de leurs cibles.» 

En raison de ces menaces, la chercheuse recommande de limiter les partages en ligne, en particulier les vidéos qui révèlent différents angles de visage et tons de voix, puisque les escrocs peuvent les utiliser pour manipuler ou usurper des identités. Elle invite aussi les gens à discuter avec leurs proches lorsqu’ils sont confrontés à des messages douteux ou à des occasions suspectes afin d’y voir plus clair.   

Finalement, la professeure insiste sur l’importance de créer une communauté plus consciente des risques et mieux préparée à se défendre contre ces menaces sophistiquées. «La cyberéducation est cruciale, surtout à l’ère de l’IA générative, afin d’amener les individus à reconnaître les menaces en ligne, les prévenir et y réagir. Enfin, l’hygiène numérique doit débuter dès le jeune âge afin de préserver les générations futures», conclut-elle. 

Partager