L’IA contre l’IA
L’équipe de recherche a mis à l’épreuve plusieurs grands modèles de langage (ou LLM pour large language model) – les mêmes qui alimentent des outils comme ChatGPT, Copilot, Gemini ou Claude – pour analyser 400 sites Web, dont une moitié était frauduleuse.
Dans ce groupe se trouvaient de faux sites d’investissement promettant des rendements mirobolants et d’autres vendant des produits ou des services inexistants. Les textes et les captures d’écran des pages ont été soumis aux LLM, accompagnés d’une simple consigne: «Décide si ce site est une arnaque et explique pourquoi.»
Selon les résultats, Claude 3.5 et GPT-4o sont les grands modèles qui ont réussi à repérer la majorité des sites frauduleux, «avec une bonne précision», note Esma Aïmeur.
En examinant les explications fournies par les modèles, la chercheuse a remarqué que l’IA s’appuie sur des indices plus fins que ceux qu’un utilisateur moyen pourrait déceler, comme des URL avec des fautes de frappe, des promesses irréalistes, l’absence de mentions légales, des invitations pressantes, des avis trop positifs.
Fait encourageant: les LLM sont de plus en plus accessibles. Quiconque peut copier-coller des liens suspects dans des outils publics comme ChatGPT ou Copilot afin d’obtenir une analyse immédiate des risques basée sur la structure du lien ou sur les informations disponibles. Les utilisateurs peuvent également télécharger des captures d’écran de messages et de sites douteux pour les faire examiner, ajoute la professeure.
Une arme de plus, non sans défauts
Or, tout n’est pas parfait, indique Esma Aïmeur. «Parfois, l’IA hallucine ou se laisse berner par des sites bien construits qui affichent de fausses coordonnées ou des témoignages inventés. Et il ne faut pas oublier que les mêmes outils pourraient être utilisés par les escrocs eux-mêmes pour rendre leurs arnaques encore plus convaincantes», met-elle en garde.
Pour la professeure, cela souligne encore davantage la nature à double tranchant de l’IA et l’importance de définir des cadres éthiques parallèlement aux progrès technologiques.
En définitive, cette étude montre que les outils d’IA peuvent devenir des alliés rapides et gratuits pour lutter contre la cybercriminalité. En s’appuyant sur ces résultats, la chercheuse, en collaboration avec des collègues de l’Université catholique de Louvain, explore également comment ces mêmes modèles peuvent contribuer à détecter des menaces internes au sein des organisations, élargissant ainsi la portée de la lutte contre les cybermenaces. À condition, toutefois, d’être sensible à l’existence de ces risques, de se tenir aux aguets et d’avoir le réflexe d’utiliser ces plateformes.
Prudence et ouverture
«Il est facile de croire que seules les personnes cupides ou imprudentes se font piéger par les escroqueries, mais ce n’est pas vrai, avertit Esma Aïmeur. Les escrocs sont très créatifs et inventent constamment de nouvelles façons de tromper, jouant avec nos émotions pour nous prendre au dépourvu. Considérez les escrocs comme des dramaturges modernes. Ils élaborent soigneusement des histoires et des scénarios, chacun étant conçu pour toucher les cordes sensibles de leurs cibles.»
En raison de ces menaces, la chercheuse recommande de limiter les partages en ligne, en particulier les vidéos qui révèlent différents angles de visage et tons de voix, puisque les escrocs peuvent les utiliser pour manipuler ou usurper des identités. Elle invite aussi les gens à discuter avec leurs proches lorsqu’ils sont confrontés à des messages douteux ou à des occasions suspectes afin d’y voir plus clair.
Finalement, la professeure insiste sur l’importance de créer une communauté plus consciente des risques et mieux préparée à se défendre contre ces menaces sophistiquées. «La cyberéducation est cruciale, surtout à l’ère de l’IA générative, afin d’amener les individus à reconnaître les menaces en ligne, les prévenir et y réagir. Enfin, l’hygiène numérique doit débuter dès le jeune âge afin de préserver les générations futures», conclut-elle.