Un philosophe fait la morale aux robots

  • Forum
  • Le 17 août 2020

  • Mathieu-Robert Sauvé
Des difficultés techniques sont à surmonter avant de parvenir à fabriquer des robots vertueux, mais ceux‑ci inspireraient davantage confiance que des robots utilitaristes ou déontologistes.

Des difficultés techniques sont à surmonter avant de parvenir à fabriquer des robots vertueux, mais ceux‑ci inspireraient davantage confiance que des robots utilitaristes ou déontologistes.

Crédit : Getty

En 5 secondes

Martin Gibert publie un essai de vulgarisation philosophique sur les enjeux éthiques de l’intelligence artificielle et de la robotique.

Martin Gibert

Crédit : Centre de recherche en éthique

Chercheur à l’Université de Montréal depuis 2017, Martin Gibert est spécialiste en philosophie morale. De son doctorat sur la manière dont l’imagination peut enrichir notre connaissance morale et de son postdoctorat sur la perception morale et les animaux non humains, il a tiré deux livres, L’imagination en morale (Hermann, 2014) et Voir son steak comme un animal mort: véganisme et psychologie morale (Lux, 2015). Après avoir travaillé sur la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, il s’est concentré sur la moralité (ou son absence) des robots qui nous entourent. Le philosophe répond à nos questions.

Pourquoi faire la morale aux robots?

Parce qu’ils sont de plus en plus présents dans nos vies et qu’on doit programmer les algorithmes pour anticiper les problèmes moraux auxquels ils auront à faire face. Par exemple, si une voiture autonome doit choisir qui sacrifier en cas d’accident entre un vieillard et un enfant, on doit y penser d’avance. Or, on peut tout à fait s’inspirer des approches traditionnelles en philosophie morale. Comment amener la voiture à faire le bon choix – en admettant qu’il y en ait un? Doit-elle appliquer l’utilitarisme et calculer le bien-être total qui découlerait de sa décision? Il reste statistiquement moins d’années à vivre à une personne âgée qu’à un écolier… Cette position choque certains philosophes, en particulier les déontologistes, très attachés aux droits fondamentaux. La solution que je préconise, c’est l’éthique de la vertu. Les robots peuvent être moralement programmés, oui, mais en leur donnant l’occasion d’apprendre à partir d’exemples, comme le montrent les travaux menés ici même à Montréal par l’équipe de Yoshua Bengio. Les machines pourraient ainsi accumuler plusieurs siècles de sagesse humaine et prendre rapidement une décision qui tiendra compte de nombreux facteurs. Il y a évidemment beaucoup de difficultés techniques à surmonter avant de parvenir à fabriquer des robots vertueux, mais je crois que ceux‑ci inspireraient davantage confiance que des robots utilitaristes ou déontologistes.


L’absence des robots qui devaient alléger notre quotidien et libérer les humains de tâches avilissantes n’est-elle pas la grande déception de la modernité?

Il est vrai que nos maisons ne sont pas remplies d’automates humanoïdes qui assurent l’entretien et gardent les enfants, mais les algorithmes et l’intelligence artificielle [IA] font incontestablement partie de nos vies. Les voitures autonomes sont à nos portes et les systèmes d’IA sont amenés à prendre certaines décisions qui ne sont pas dépourvues d’enjeux éthiques. Par exemple, certains robots conversationnels [chatbots] sont suffisamment avancés pour reconnaître des propos racistes et sexistes; devraient-ils intervenir? Ils pourraient aussi détecter automatiquement les sons suspects dans une maison pour alerter la police ou les pompiers. Doit-on permettre aux robots de déceler les signes précurseurs d’arrêt cardiaque ou d’accident vasculaire cérébral? Bref, en offrant de nouvelles possibilités, la technologie nous donne de nouvelles responsabilités – et soulève de nombreuses questions éthiques.

Comment réagissent les ingénieurs et les informaticiens aux propos d’un philosophe?

Je les trouve très ouverts. La plupart d’entre eux ont conscience que ces questions ne peuvent pas se régler de façon purement technique. Mon poste à l’Université de Montréal reflète d’ailleurs bien cette volonté de collaboration, puisque je suis affilié à la fois au Centre de recherche en éthique et à IVADO. La recherche en intelligence artificielle ne peut pas se passer des sciences humaines. Un gadget technologique qui ne tient pas compte des besoins humains reste un gadget inutile, voire néfaste. Les écrivains et les scénaristes de science-fiction s’intéressent depuis toujours au développement d’une intelligence parallèle; celle-ci ne doit pas être déconnectée des grands questionnements philosophiques.

À qui est destiné votre livre?

Les cégépiens et cégépiennes sont mon lectorat cible. Par extension, j’espère joindre le plus vaste public possible. C’est une des missions que je me suis données: vulgariser la philosophie. On ne peut pas faire la morale aux robots si l'on ne rend pas celle-ci accessible aussi aux humains.

À propos

Martin Gibert, Faire la morale aux robots: une introduction à l’éthique des algorithmes, Montréal, Atelier 10, 2020, 94 p., 12,95 $.

Blogue: La quatrième blessure