Former les criminologues de demain grâce à l’intelligence artificielle
- UdeMNouvelles
Le 7 mai 2025
- Virginie Soffer
Pour mieux former les criminologues, une équipe de recherche a mis au point des avatars capables de simuler des entrevues avec de jeunes contrevenants.
Comment mieux préparer les futurs criminologues à évaluer le risque de récidive chez les mineurs auteurs d’une infraction?
Une équipe de l’École de criminologie de l’Université de Montréal, composée des étudiantes de doctorat Ann-Pierre Raiche, Manon Duval et Léanne Dauphinais, sous la direction de leur professeur Jean-Pierre Guay, a exploré une piste innovante: remplacer les traditionnels scénarios cliniques par des personnages virtuels dotés d’intelligence artificielle et conçus à partir d’expériences bien réelles. Dans un cours sur l’évaluation du risque, 92 étudiantes et étudiants en criminologie ont testé cet outil interactif avant de répondre à un questionnaire sur leur expérience. Verdict: les robots conversationnels ne sont pas seulement perçus comme étant efficaces pour l’apprentissage, ils rendent aussi l’évaluation du risque plus dynamique et engageante. Ces résultats sont présentés à l'occasion du 92e Congrès de l’Acfas.
Les limites des méthodes traditionnelles
Tout est parti d’une constatation en salle de classe. «Dans plusieurs cours universitaires, notamment en criminologie, on utilise des scénarios cliniques papier. Ces scénarios présentent toutefois plusieurs limites, notamment la difficulté de mettre à l’épreuve les compétences cliniques. En effet, ils ne sont pas représentatifs des situations que les professionnels peuvent rencontrer dans leur travail», explique Ann-Pierre Raiche. Ces scénarios sur papier comportent toutes les informations nécessaires, il n’y a pas de recherche à faire ni d’interaction possible, comme au cours d’une véritable entrevue. Il manquait la complexité du réel.
«En pratique, un intervenant doit aller chercher l'information, poser les bonnes questions et parfois faire face à des jeunes qui ne veulent pas répondre. Ça, un scénario clinique ne l'apprend pas», résume-t-elle.
Jusqu'ici, certaines universités avaient tenté de contourner ces limites en utilisant des vidéos, voire en recrutant des jeunes pour simuler des entrevues. Mais ces solutions présentaient d’importants défis. «D'abord, les vidéos deviennent rapidement désuètes, souligne la doctorante. Ensuite, faire appel à de vrais jeunes pose des questions éthiques majeures, surtout quand on parle de jeunes judiciarisés.»
Quant aux mises en situation réelles avec des comédiens ou aux jeux de rôle, ils sont difficiles à mettre en place dans un programme qui accueille environ 130 étudiants et étudiantes par cohorte.
Un agent virtuel autonome nourri par l’expérience réelle
Avec l’appui d'ingénieurs du Conseil national de recherches du Canada, l’équipe de recherche a conçu un robot conversationnel capable de simuler une entrevue avec un mineur qui a commis une infraction.
Pour créer différents personnages fictifs, l’équipe s’est inspirée de la réalité. «Nous avons fait des entrevues avec des jeunes en centre jeunesse. Pour la création d’un personnage, sept jours d’entrevues d’une durée de huit heures étaient nécessaires», dit Ann-Pierre Raiche. Ces témoignages ont permis de donner naissance à plusieurs personnages. L’un d’entre eux, Michael, est inspiré de l’histoire d’un jeune membre d’un gang de rue et condamné pour possession et décharge d’une arme à feu.
«L'idée, c'était vraiment de ne pas inventer une histoire de toutes pièces, mais de partir du vécu de ces jeunes pour créer des cas réels et cohérents et arriver à donner vie à ces agents virtuels autonomes», insiste-t-elle.
Un apprentissage plus engageant et efficace
Les étudiantes et étudiants ont jugé l’exercice avec l’agent virtuel autonome plus utile pour leur apprentissage que les méthodes traditionnelles. «Ceux qui ont trouvé l’outil pertinent ont obtenu de meilleures notes à l’examen final que ceux qui l’ont moins aimé», indique Ann-Pierre Raiche.
Pour ancrer l’expérience dans la réalité du terrain, l’équipe de recherche a misé sur des situations courantes en criminologie plutôt que sur des cas exceptionnels. Résultat: les étudiantes et les étudiants se sont sentis immédiatement concernés. Ils ont ainsi salué le réalisme de l’exercice. «Le but était de donner l’impression de s'entraîner avec un vrai jeune. Ça permet aussi d’être confronté au langage des jeunes, qui utilisent des expressions qui leur sont propres», observe la doctorante.
Le robot a également offert un terrain d’entraînement précieux pour perfectionner les techniques d’entrevue. «Il fallait apprendre à bien formuler ses questions pour obtenir les informations recherchées. Par exemple, en criminologie, on s’intéresse aux crises de colère. Chez un adolescent, comment se manifeste la colère? Comment poser les bonnes questions pour connaître les causes de ces comportements?» poursuit-elle. Grâce à ce robot, les étudiants et étudiantes ont appris à aller plus loin dans les questions descriptives pour chercher de l’information. Les résultats de la recherche montrent qu’ils ont trouvé cela très pertinent pour leur apprentissage.
Des pistes d’amélioration et de développement
L’équipe réfléchit déjà à plusieurs pistes pour faire évoluer l’outil. L’une d’elles serait de rendre les agents conversationnels encore plus réalistes en leur intégrant des expressions faciales.
Autre projet en vue: ajouter différents niveaux d’interaction. «Il serait ainsi possible de tester différentes attitudes du personnage, selon qu’il est coopératif ou au contraire réticent à l’échange, mentionne Ann-Pierre Raiche. Dans la réalité, il arrive souvent que les professionnels rencontrent des jeunes peu enclins à discuter de certains aspects. Nous aimerions pouvoir simuler ces situations en modulant le degré de réticence du personnage.»
L'équipe souhaite aussi intégrer un système de rétroaction automatique. «Après chaque interaction, l'agent virtuel autonome pourrait indiquer les renseignements qui n’ont pas été obtenus et proposer des exemples de questions qui auraient pu être posées», précise la chercheuse.
Enfin, un autre chantier serait d’explorer l’utilisation de grands modèles de langage, comme ChatGPT, pour apporter encore plus de flexibilité aux échanges. Aujourd’hui, le robot repose sur un bassin fixe de questions: certaines interrogations des étudiants et des étudiantes ne peuvent donc pas être prises en compte. Mais l’intégration de l’intelligence artificielle n’est pas sans risque. «On craint que l’agent conversationnel se mette à inventer des réponses incohérentes, reconnaît la doctorante. Il faudra établir des balises claires pour rester dans un cadre pédagogique.»
Malgré tous ces outils technologiques, le rôle du formateur reste indispensable. «L'agent virtuel autonome est un très bon complément, mais il ne remplace pas l’analyse fine d'un enseignant ou d’une enseignante ni la rétroaction humaine. Les étudiantes et les étudiants ont besoin qu'on les guide, qu'on leur explique pourquoi telle réponse est bonne ou insuffisante», conclut Ann-Pierre Raiche.