Des robots comme médiateurs?

En 5 secondes Une équipe de recherche du Laboratoire de cyberjustice de la Faculté de droit de l'UdeM s’intéresse au potentiel de l’intelligence artificielle dans la résolution de conflits.
Un modèle d’IA agissant comme médiateur pourrait démocratiser l’accès à la médiation pour de petits conflits ou des désaccords du quotidien par exemples.

La médiation est une méthode de résolution des conflits qui fait intervenir un tiers neutre afin d’aider les parties à résoudre leur différend. Elle peut s’appliquer, par exemple, à des litiges en matière de logement, de travail ou de famille.

Dans une optique d’amélioration de l’accessibilité au droit, une équipe de recherche s’est demandé dans quelle mesure les grands modèles de langage (GML) – ceux qui alimentent des robots conversationnels comme ChatGPT ou Copilot – seraient capables d’agir en tant que médiateurs. 

Issu du Laboratoire de cyberjustice et soutenu par la Chaire LexUM en information juridique, ce projet découle de travaux sur la résolution des conflits en ligne, notamment la création de la plateforme Parle consommation qu’utilise l’Office de la protection du consommateur.

Plus précisément, Jinzhe Tan, étudiant de doctorat encadré par Karim Benyekhlef, professeur à la Faculté de droit de l’Université de Montréal et directeur du Laboratoire de cyberjustice, a voulu savoir si ces modèles d’intelligence artificielle (IA) peuvent analyser des conversations conflictuelles, sélectionner les types d’intervention appropriés et produire des messages d’intervention adaptés. 

Réponse courte: oui, très bien.

Un succès étonnant

Pour arriver à cette conclusion, Jinzhe Tan et ses collègues du Laboratoire de cyberjustice ont d’abord construit un ensemble de données originales comprenant 50 scénarios de conflits de type high-volume low-value, c’est-à-dire des différends qui surviennent fréquemment, mais qui ne sont pas suffisamment graves pour conduire les parties devant un tribunal. On y trouvait ainsi des litiges concernant des livraisons endommagées, des querelles au travail ou des désaccords entre locataires et propriétaires.

Ensuite, l’équipe a utilisé divers GML pour analyser les situations, choisir le type d’intervention et produire un message d’intervention. Une fois les propositions soumises par les GML, l’exercice a été répété avec des annotateurs humains. Puis, les réponses ont été évaluées à l’aveugle pour déterminer, dans chaque cas, si l’intervention était adéquate, si le message était clair, neutre et pertinent et si le contexte était bien compris.

Dans l’ensemble, les modèles d’IA ont affiché des performances impressionnantes, surpassant même les annotateurs humains sur certains aspects. Plus précisément, dans 62 % des cas, les GML ont choisi des types d’intervention jugés meilleurs ou équivalents à ceux proposés par les humains. 

Aussi, dans 84 % des cas, les messages d’intervention produits par l’intelligence artificielle ont été considérés comme meilleurs ou équivalents à ceux rédigés par des humains. Les GML ont également obtenu de bons résultats pour des paramètres tels que l’impartialité, la compréhension et la contextualisation.

 

Un accès démocratisé, mais surtout un outil

Le fait qu’un modèle d’IA puisse agir comme médiateur ouvre des perspectives nouvelles, estime Jinzhe Tan. D’abord, cela pourrait démocratiser l’accès à la médiation pour de petits conflits, des désaccords du quotidien, des conflits en ligne.

«L’IA pourrait offrir une aide immédiate, de façon anonyme, à moindre coût, sans que les parties aient à attendre un rendez-vous», indique le doctorant.

Ensuite, cette technologie pourrait appuyer les médiateurs humains dans la plateforme de règlement en ligne Parle consommation et ses équivalents, sans toutefois les remplacer, insiste le chercheur. 

«L’IA peut traiter avec brio et résumer rapidement des dossiers simples, ce qui libère du temps et des ressources pour les médiateurs professionnels. En revanche, pour des conflits épineux ou émotionnellement chargés – ceux dont le règlement nécessite de l’empathie, du jugement ou de la gestion de dynamiques humaines complexes –, la prudence reste de mise», dit-il.

Bref, les modèles d’intelligence artificielle pourraient devenir des agents de médiation qui ne supplantent pas les humains, mais qui offrent un premier niveau d’aide accessible, rapide et neutre.

Partager