Et si ChatGPT était une bonne nouvelle pour l’éthique?

Selon Marc-Antoine Dilhac, au moins trois principes qui peuvent être mis à contribution pour un usage responsable, éthique de ChatGPT.

Selon Marc-Antoine Dilhac, au moins trois principes qui peuvent être mis à contribution pour un usage responsable, éthique de ChatGPT.

Crédit : Getty

En 5 secondes

Le professeur de philosophie et spécialiste de l’éthique Marc-Antoine Dilhac cerne les défis éthiques de ChatGPT.

Marc-Antoine Dilhac

Marc-Antoine Dilhac

Crédit : Amélie Philibert, Université de Montréal

Depuis l’arrivée de ChatGPT, bien des gens ont eu recours à ses services: qu’ils soient informaticiens pour coder certaines lignes, étudiants pour réaliser des travaux, voire enseignants pour trouver des suggestions de plans de cours, etc. De nombreuses questions éthiques découlent de l’entrée en scène de ce robot conversationnel. 

Pour en savoir plus, nous nous sommes entretenus avec Marc-Antoine Dilhac, professeur de philosophie à la Faculté des arts et des sciences de l’Université de Montréal, qui a participé à l’élaboration de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle

Avec ChatGPT ne risque-t-on pas d’amplifier les biais de discrimination?

La problématique de la discrimination est un enjeu transversal dans le domaine de l'intelligence artificielle en général, elle n'est pas spécifique à ChatGPT. Les biais observés liés au genre sont analogues à ceux qu'on trouve dans le traitement du langage naturel traditionnel ou dans les suggestions de saisie automatique de Google. Par exemple, dans les traductions automatiques, les systèmes d'intelligence artificielle ont tendance à privilégier le masculin pour certaines professions et le féminin pour d'autres, ce qui conduit parfois à des expressions telles que «un médecin» et «une infirmière». 

ChatGPT repère ces biais de genre dans les textes préexistants et les reproduit, car ils sont largement enracinés dans les normes sociales. Si nous souhaitons que cela change, la responsabilité nous incombe en tant qu'êtres humains de modifier nos habitudes. Lorsque ChatGPT utilise des formulations comme «un policier» et «une secrétaire», cela devrait être perçu comme un reflet de nos propres discours et nous inciter à prendre des mesures pour atténuer de tels biais. En exposant ces biais, ChatGPT a une vertu fondamentale: il nous renvoie l'image de nos préjugés, ce qui nous permet d’en prendre conscience. 

Quels sont les principaux enjeux éthiques que présente ChatGPT pour la société?

Je distingue principalement trois enjeux majeurs.  

Le premier enjeu est éducatif et l’Université de Montréal a entamé une réflexion à cet égard. Il s'agit de l'avenir de l'apprentissage dans un contexte où ChatGPT peut être sollicité pour rédiger des textes et rassembler des informations à destination des étudiants et des étudiantes. Le personnel enseignant pourrait également utiliser ChatGPT pour automatiser des corrections et les établissements d'enseignement peuvent avoir un intérêt à les y encourager pour diminuer le temps de correction. Cependant se pose la question de la responsabilité dans l'évaluation des travaux. Quelle est la place de la rétroaction si ChatGPT est employé pour évaluer les copies? Quelle relation pédagogique veut-on établir? 

Le deuxième enjeu concerne la propriété intellectuelle, menacée par l'utilisation de ChatGPT et d'autres outils dotés d’une intelligence artificielle générative qui recourent à des œuvres originales, tels des textes, des images, des photographies ou des peintures, pour créer un contenu synthétique qui peut ne pas rendre justice aux auteurs. Cet enjeu a des implications juridiques et économiques importantes, susceptibles de nuire à la production d'œuvres artistiques, mais aussi aux organisations de production du savoir comme les universités.  

Enfin, le troisième enjeu, qui pourrait être exacerbé par l'arrivée de ChatGPT, a trait à la démocratie et à l'intégrité des élections. Il porte sur la possibilité que la production de textes cible des individus afin de les influencer ou de manipuler leurs convictions politiques. Je ne suis pas entièrement convaincu par ce risque, car je pense que les êtres humains sont plus sensibles aux opinions émises par d'autres êtres humains qu'à celles formulées par des machines. Cependant, sur Internet, il est vrai que l'authentification des sources des contenus textuels n'est pas toujours possible et la production d'articles à la chaîne devient de plus en plus facile. Les internautes peuvent ainsi être saturés d'information, ce qui pourrait avoir pour conséquence d’orienter leur façon de penser. Cette production textuelle pourrait devenir massive et mener à du microciblage sur des individus de manière vraiment beaucoup plus fine qu’on le faisait par le passé. 
 

Vous avez participé à l’élaboration de la Déclaration de Montréal IA responsable. Comment les principes émis pourraient-ils favoriser un usage éthique de ChatGPT?

Je vois de manière assez évidente au moins trois principes qui peuvent être mis à contribution pour un usage responsable, éthique de ChatGPT. 

Le premier principe fondamental à considérer est celui de l'autonomie. Ce principe se décline à plusieurs niveaux dans l'utilisation de la machine. Par exemple, lorsque des étudiants, des enseignants, des journalistes ou des avocats recourent à ChatGPT pour effectuer leur travail, ils compromettent leur autonomie. L'enjeu ici réside dans le fait de déléguer des tâches à la machine, ce qui pourrait entraîner une perte d'autonomie. Lorsqu'on cesse d'accomplir certaines tâches et qu’on les confie à autrui ou à une machine, on devient dépendant du travail effectué par ce tiers, en l'occurrence la machine. 

Dans le domaine de l'éducation, l'utilisation de ChatGPT soulève des questions quant à l'autonomie des étudiants et étudiantes dans leur réflexion critique et à la formation du corps enseignant, qui pourrait être moins enclin à vérifier les sources ou à les comprendre, préférant se référer aux résumés fournis par ChatGPT. Certains usages de ChatGPT pourraient menacer nos capacités cognitives et donc notre autonomie. 

Le second principe est celui de la solidarité. Ce principe énoncé dans la Déclaration stipule qu’on doit constamment veiller à maintenir des relations humaines de qualité et à n'utiliser les machines que pour améliorer ces relations. Ainsi, plutôt que de céder certaines tâches aux machines, il s’agit de collaborer avec elles et d’entretenir des relations interpersonnelles enrichissantes et parfois nécessaires à certaines fonctions sociales, comme dans les métiers du soin. On peut considérer que des services de psychologie fournis par ChatGPT sont en contradiction avec ce principe de solidarité. Mais cette utilisation est devenue une réalité. On se retrouve alors face à un véritable problème parce que manifestement on ne sait pas alors ce qu'est une relation thérapeutique. Des applications commerciales incontrôlées peuvent être catastrophiques parce qu'elles reposent sur une mécompréhension des principes éthiques du développement responsable de l’intelligence artificielle, dans le cas présent ce qu'est une relation thérapeutique et en général une relation humaine de qualité. 

Le troisième principe est celui de la participation démocratique. Si nous ne comprenons pas le fonctionnement des machines, si nous n'exerçons aucun contrôle sur la production de contenu et si cette production de contenu perturbe les interactions entre les êtres humains et diminue la qualité des arguments échangés, alors nous sapons l'un des fondements de la démocratie, à savoir la capacité de prendre des décisions éclairées à partir de débats raisonnables avec nos concitoyens et concitoyennes. L’application du principe de la participation démocratique est cruciale dans ce contexte; elle requiert, pour préserver un contrôle humain sur l’intelligence artificielle, un certain niveau de transparence et une limitation de son utilisation par le grand public. Les interfaces de programmation d'application, qui permettent d’utiliser un programme comme ChatGPT dans une application tierce – comme des applications de consultations psychologiques –, devraient être soumises à un contrôle strict.  

Ce texte fait partie de la série «Les répercussions présentes et futures de l'intelligence artificielle». Pour lire tous les autres articles, c'est par ici.