Découverte d’un remède miracle pour la perte de poids
- UdeMNouvelles
Le 1 mai 2023
- Béatrice St-Cyr-Leroux
Un titre accrocheur, n’est-ce pas? Mais aussi tout à fait trompeur. Peut-être malgré vous, vous voilà en train de lire un article sur les fausses nouvelles et la désinformation en ligne.
Avez-vous cliqué sur cet article en raison de son titre alléchant et de son image sensationnelle? Ou pire, l’avez-vous partagé sans en connaître la teneur? Si oui, vous venez d’être victime d’un piège à clics (clickbait), votre attention ayant été captée par un titre prometteur, mais entièrement faux.
Là est la preuve que «le maillon faible de la cybersécurité est l’humain». Une phrase portée par Esma Aïmeur, professeure au Département d’informatique et de recherche opérationnelle de l’Université de Montréal.
Chercheuse spécialisée en sécurité de l’information et en intelligence artificielle, elle a récemment publié un article qui dresse un état des lieux des fausses nouvelles, de la désinformation et de la mésinformation dans les médias sociaux.
Elle y décortique notamment les différents types de fausses nouvelles, comme le clickbait (considéré comme le moins préjudiciable), la satire (une forme d’humour qui présente des nouvelles factuellement incorrectes dans le but de les ridiculiser), le canular (une nouvelle fausse ou inexacte fabriquée intentionnellement pour masquer la vérité), la propagande, la rumeur (des affirmations ambigües ou jamais confirmées) ou encore les théories conspirationnistes.
«C’est important de connaître les différentes catégories de fausses nouvelles pour savoir les distinguer et ensuite s’en méfier», estime Esma Aïmeur.
Car voilà le cœur de son discours: la seule façon de lutter contre la désinformation dans les médias sociaux passe par l’éducation, la sensibilisation et la vigilance du public.
L’humain, le véritable fauteur de troubles
Pour Esma Aïmeur, le manque de conscientisation des utilisateurs est le problème à la source des fausses nouvelles et de la désinformation dans les médias sociaux.
«Des statistiques récentes montrent que le pourcentage de diffuseurs involontaires de fausses nouvelles – ceux et celles qui les partagent sans intention d’induire en erreur – est cinq fois plus élevé que celui des diffuseurs intentionnels, indique la chercheuse. En outre, le pourcentage de personnes confiantes dans leur capacité à discerner les faits de la fiction est 10 fois plus élevé que celui des personnes qui ne sont pas confiantes dans la véracité de ce qu’elles partagent.»
En somme, les utilisateurs partagent du contenu erroné sans le savoir, mais sont persuadés de la qualité de ces informations. Le problème ne réside donc pas uniquement dans la mauvaise foi des individus, mais plutôt dans leur manque d’esprit critique, résume Esma Aïmeur.
Pour pallier la situation, la professeure considère que cette vigilance en ligne devrait être enseignée dès le primaire et tout au long de la vie. «Tout un chacun peut parvenir à détecter les fausses nouvelles. Mais seulement s’il y a été sensibilisé, s’il est attentif et s’il sait qu’il ne faut pas tenir pour acquis tout ce qu’on lit ou entend. Pour utiliser des outils puissants comme les médias sociaux, il faudrait d’abord être averti de leurs risques. Une heure de conférence sur la cybersécurité ne suffit pas, ces thèmes devraient figurer dans l’ensemble des programmes d’enseignement», insiste-t-elle.
Même son de cloche pour le robot conversationnel ChatGPT, dont certaines publications sont des faussetés ou relèvent de la fabulation: les informations doivent être prises avec un grain de sel et faire intervenir une pensée critique.
Esma Aïmeur ajoute qu’il est crucial de vérifier la source des informations en cherchant des signes tels que des fautes d’orthographe, des adresses non sécurisées, des sites Web récemment créés, des courriels au ton pressant et insistant, etc.
Les autres technologies peuvent-elles être utiles?
La reconnaissance et la détection des fausses nouvelles restent ainsi des défis de taille non résolus. Mis à part un esprit critique aiguisé, de quels moyens disposons-nous pour y parvenir?
D’emblée, Esma Aïmeur rapporte que les systèmes d’intelligence artificielle, comme l’apprentissage automatique et l’apprentissage profond, ne sont pas encore en mesure de nous aider à ce chapitre.
Au contraire, ces techniques peuvent parfois être utilisées pour tromper les gens en créant et en diffusant du faux contenu. Pensons notamment aux hypertrucages (deepfakes), qui parviennent à contrefaire des expressions faciales dans des vidéos, ou aux algorithmes de filtrage collaboratif, qui prédisent les contenus que les utilisateurs pourraient aimer en se basant sur d’autres utilisateurs dont les goûts sont similaires. Se forment alors des bulles informationnelles où les contenus confortent les utilisateurs dans leurs croyances et leurs opinions.
Toutefois, Esma Aïmeur signale que certaines ressources en ligne peuvent aider les internautes à séparer le bon grain de l’ivraie. Par exemple, des sites comme FactCheck, PolitiFact ou Snopes sont des références en matière de vérification des faits sur Internet et d’exactitude factuelle. NewsGuard, une extension de navigateur Web, évalue la fiabilité générale d’un site. La fonction de recherche d’image inversée de Google et le site TinEye permettent aussi de retrouver la source d’une image et le média social LinkedIn valide les antécédents professionnels d’un auteur.
«Les fausses nouvelles peuvent alimenter les peurs, renforcer les biais, éroder la confiance du public à l’égard de la démocratie, semer la confusion, inciter à la haine et à la discrimination. Éduquons les gens, faisons de la prévention parce que, en matière de cybersécurité, nous allons droit dans un mur si nous n’agissons pas maintenant», conclut la chercheuse.