Le visage du premier ministre sur votre robot sexuel?

  • Forum
  • Le 29 mai 2019

  • Mathieu-Robert Sauvé
Le recours à des avatars sexuels soulève des questions éthiques qui occupent une partie de la communauté savante actuellement.

Le recours à des avatars sexuels soulève des questions éthiques qui occupent une partie de la communauté savante actuellement.

Crédit : Getty

En 5 secondes

Un chercheur en éthique de l’UdeM se penche sur l’usage non consenti de l’image d’une personnalité publique à des fins sexuelles.

Le visage du premier ministre canadien, Justin Trudeau, ainsi que sa voix simulée peuvent-ils être reproduits à l’aide de l’intelligence artificielle (IA) sur un robot sexuel sans que le principal concerné ait consenti à cet usage?

Voilà la question posée par le chercheur en éthique Martin Gibert au 87e Congrès de l’Acfas, qui se déroule cette semaine à Gatineau. «Je ne m’intéresse pas au côté technique ou légal de cette question, mais à ses aspects moraux. Et là, plusieurs valeurs s’affrontent», explique l’agent de recherche rattaché au Centre de recherche en éthique et à l’Institut de valorisation des données de l’Université de Montréal, qui possède une formation de philosophe. Sa présentation s’inscrit dans le colloque intitulé «Penser l’érobotique: regard transdisciplinaire sur la robotique sexuelle», qui se tiendra les 30 et 31 mai à l’Université du Québec en Outaouais. Le néologisme érobotique est une contraction des termes «Éros» (dieu grec de l’amour) et «robotique».

Le principal choc des valeurs oppose le bienfait obtenu par l’individu qui recourt à l’image d’une personnalité publique pour alimenter un fantasme et le mal éventuel provoqué par cet usage. «La position libérale, sans jeu de mots, veut que si une chose ne nuit à personne, alors elle est acceptable. Selon les éthiciens de la vertu, en revanche, il pourrait y avoir un malaise à utiliser à des fins sexuelles l’avatar d’une personnalité publique. Pour eux, cet usage est moralement contestable s’il révèle chez l’utilisateur une disposition au vice ‒ soit le contraire d’une vertu.»

En d’autres termes, deux visions s’affrontent: «Ce qu’on ne sait pas ne fait pas mal» et «Mon image m’appartient et nul ne peut se l’approprier». Le choix du premier ministre Trudeau n’est pas anodin. «C’est un homme blanc en situation de pouvoir, ce n’est pas une personne particulièrement vulnérable. Et ça me semble assez crédible. Mais j’aurais pu aussi bien choisir Emmanuel Macron ou Brad Pitt…»

Pas pour demain

En juillet 2017, M. Gibert est devenu le premier chercheur en éthique de l’Université de Montréal embauché spécifiquement pour réfléchir sur les retombées de l’intelligence artificielle et des mégadonnées dans nos vies. Il a d’ailleurs travaillé de près, l’an dernier, à la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Tout en indiquant qu’il n’est pas un spécialiste de la technologie, il mentionne que les robots humanoïdes sont des objets de plus en plus réalistes auxquels on a ajouté des fonctionnalités empruntées à l’IA; la voix et même certains propos peuvent sembler émaner de la personne imitée. «Mais on est encore très loin du scénario à la Blade Runner, où les robots sont si perfectionnés qu’on les confond avec les humains.»

Toutefois, une minorité d’individus ‒ leur nombre est encore difficile à quantifier ‒ utilise des poupées dotées de fonctions érotiques. La membrane de silicone qui les recouvre est assez proche de la peau humaine par exemple. «En se combinant à l’impression 3D, à la réalité augmentée et aux technologies de deepfake [hypertrucage], la robotique sexuelle pourrait devenir de plus en plus personnalisée», affirme le conférencier dans le résumé de sa présentation. Or, s’il n’est pas interdit d’avoir des fantasmes à propos d’une personne qui l’ignore, est-il acceptable de matérialiser ces fantasmes à l’aide d’un robot?

Le recours à des avatars sexuels soulève des questions éthiques qui occupent une partie de la communauté savante actuellement. Est-il mal de posséder de tels objets dans son espace privé? Cela pourrait-il avoir des conséquences indésirables sur les personnes humaines? «Et la notion de consentement est également délicate, même envers le robot. On ne demande pas à notre grille-pain d’exécuter sa tâche, mais dans la mesure où l’intelligence artificielle d’un robot simule celle d’un humain, le consentement pourrait être requis», souligne le philosophe.

Sourire et réflexion

Le cas de figure qu’il propose a beaucoup fait sourire ses collègues avant de se retrouver dans le programme officiel du congrès annuel de l’Acfas. Et si le conférencier est conscient d’avoir frappé les esprits avec son titre, Martin Gibert n’a pas moins l’intention d’aborder son sujet avec sérieux. Spécialiste de la psychologie morale (il est l’auteur d’un doctorat et d’un postdoctorat sur la question), il s’est laissé tenter par ce qu’il appelle une «expérience de pensée» à laquelle il invite le public à participer.

«Pour moi, ce colloque est une occasion d’échanger sur la question. J’espère que différents points de vue s’exprimeront», dit-il, laissant entendre qu’un article scientifique pourrait en être tiré.

Sur le même sujet

ACFAS philosophie recherche