ChatGPT et le domaine du droit: une utilité certaine, mais des questions sur son contrôle

Les outils d’intelligence artificielle générative de contenu tel ChatGPT ne remplaceront pas les avocats ni les juges, mais ils sont appelés à être de plus en plus utilisés dans le monde du droit et de la justice.

Les outils d’intelligence artificielle générative de contenu tel ChatGPT ne remplaceront pas les avocats ni les juges, mais ils sont appelés à être de plus en plus utilisés dans le monde du droit et de la justice.

Crédit : Getty

En 5 secondes

L’intelligence artificielle générative, tel l’outil ChatGPT, soulève des questions liées à son contrôle et à son utilisation dans le domaine du droit, selon deux professeurs de l’UdeM.

Les outils d’intelligence artificielle (IA) générative de contenu tel ChatGPT ne remplaceront pas les avocats ni les juges, mais ils sont appelés à être de plus en plus utilisés dans le monde du droit et de la justice. 

Plusieurs vantent déjà leurs possibilités en matière d’interprétation des lois, d’accès et d’éducation à la justice, de rédaction de contrats et de documents juridiques, d’aide juridique, d’assistance à la prise de décision et de communication entre les avocats et leurs clients. 

Or, l’avènement des agents conversationnels soulève des questions liées à leur contrôle et à leur utilisation, selon les professeurs Nicolas Vermeys et Karim Benyekhlef, de la Faculté de droit de l’Université de Montréal.

Le droit est d’abord affaire de juridiction et de territoire

Karim Benyekhlef et Nicolas Vermeys

Karim Benyekhlef et Nicolas Vermeys

Crédit : Karim Benyekhlef (Christian Fleury) et Nicolas Vermeys (Centre de recherche en droit public)

D’entrée de jeu, Nicolas Vermeys souligne que, contrairement à la médecine ou à d’autres domaines scientifiques, le droit est une discipline qui s’applique à une région ou à un territoire donné.  

«Par exemple, le droit criminel canadien ne s’applique qu’au Canada, tout comme le droit civil québécois, qui ne s’applique que dans la province», indique-t-il. 

Ainsi, bien qu’il soit possible d’entraîner un outil d’intelligence artificielle générative de contenu, le risque que l’outil donne des renseignements de nature juridique erronés est réel «d’autant plus que le Québec est sous-représenté dans l’éventail de ces informations et données utilisées pour entraîner ces algorithmes», ajoute Nicolas Vermeys.  

Un autre bémol relatif à l’usage en droit d’outils tel ChatGPT a trait à leur conception même. «ChatGPT est conçu pour fournir la réponse la plus probable à une question et non la meilleure réponse, de sorte que les résultats qu’il offre peuvent être faux: j’ai demandé à l’outil de citer mes cinq publications les plus importantes et il m’a dirigé vers quatre publications qui n’existaient pas, tandis que la cinquième n’était pas de moi!» fait remarquer celui qui dirige le Centre de recherche en droit public de l’UdeM.  

L’arrivée de l’IA générative de contenu soulève la question du contrôle du contenu qu’elle peut proposer. 

«Entre autres, qui sera tenu pour responsable si ChatGPT utilise du contenu protégé par des droits d’auteur? demande Nicolas Vermeys. La même question pourrait se poser dans l’éventualité où ce genre d’outils produit une réponse comportant des renseignements personnels.»

Une intelligence augmentée plutôt qu’artificielle

S’il est d’accord avec son collègue quant aux risques que présente l’IA générative dans le domaine du droit, le professeur Karim Benyekhlef estime qu’il est possible de l’utiliser judicieusement. 

«Ce type d’outil peut contribuer à informer les gens sur leurs droits – et ainsi favoriser l’accès à la justice –, comme le fait l’outil Justicebot, que nous avons conçu au Laboratoire de cyberjustice de l’UdeM», illustre celui qui en est le directeur principal. 

C’est d’ailleurs dans ce laboratoire qu’a été élaborée la première plateforme en ligne de règlement de conflits – la plateforme PARle –, grâce à laquelle 65 % des conflits soumis sont résolus à cette étape!  

«En l’absence d’un règlement, un médiateur entre en jeu qui bénéficie d’un outil d’aide à la décision qui repère les propos dérogatoires des parties pour suggérer des libellés et des réponses plus courtoises, ajoute Karim Benyekhlef. C’est pourquoi je considère qu’il est plus juste de parler d’intelligence augmentée plutôt qu’artificielle.» 

Le professeur précise toutefois que ces outils et agents sont utiles pour les questions de consommation, de voisinage ou de normes du travail – des conflits peu complexes auxquels la majorité des gens sont confrontés lorsqu’ils ont affaire à la justice.

Les juristes ont encore de beaux jours devant eux!

Pour les causes complexes, avocats et juges ne sont pas près de disparaître. 

«Compte tenu des risques d’affabulation que l’IA générative comporte – par exemple en inventant de toutes pièces une jurisprudence, comme cela s’est produit aux États-Unis –, l’intervention de juristes s’avérera toujours essentielle», assure Karim Benyekhlef.  

Tout comme Nicolas Vermeys, il mentionne que le droit est évolutif et qu’il découle du contexte dans lequel il est énoncé: pour eux, l’IA générative de contenu n’est pas en mesure de tenir compte de la perspective et de la prospective que suppose un raisonnement. 

«Plusieurs prétendent que l’IA assure une égalité de traitement et de ce fait élimine complètement les biais, conclut M. Benyekhlef. Mais traiter tous les individus sans distinction et de manière absolue ne conduit pas à l’égalité. Le facteur humain joue un rôle fondamental dans la justice et, en matière d’égalité de traitement, je ne crois pas qu’un algorithme serait en mesure de faire la part des choses entre le vol d’une miche de pain commis par une mère chef de famille monoparentale et le même vol perpétré par un jeune privilégié qui a voulu épater ses amis.»