Les robots tueurs peuvent-ils bien agir?

Crédit : Getty

En 5 secondes

Et si la sagesse telle qu’enseignée par les anciens pouvait nous éclairer?

Patricia Gautrin

Patricia Gautrin

Crédit : Photo de courtoisie

Une intelligence artificielle devient consciente et veut éradiquer l’espèce humaine. Le scénario apocalyptique de Terminator. Un scénario encore fictif pour les prochaines années? Heureusement, oui! Les récents développements en intelligence artificielle n’en sont pas encore là. Toutefois, les avancées technologiques en matière d’armement progressent avec une rapidité effrayante et l’automatisation des moyens d’attaque et de défense soulève de nombreuses questions éthiques. Que se passerait-il si un drone muni d’une bombe intelligente venait à rater sa cible? Ou s’il était piraté? Qui pourrait être tenu pour responsable: le fabricant, celui qui a manœuvré le drone, le pirate informatique? 

Patricia Gautrin, étudiante de doctorat en philosophie à l’Université de Montréal, auteure du livre PAUSE: pas d’IA sans éthique et chercheuse à l'Algora Lab, réfléchit sur les actions possibles à effectuer en amont de ces systèmes pour orienter les décisions afin qu’elles préservent les droits de la personne. Une réflexion qu’elle mène dans le cadre de sa thèse réalisée sous la direction de Marc-Antoine Dilhac, professeur de philosophie à la Faculté des arts et des sciences de l’UdeM.  

La multiplication des drones kamikazes

Les drones kamikazes, c’est-à-dire des drones contenant des charges explosives qui peuvent être lâchées aux endroits souhaités, se multiplient. On note par exemple les Shahed-136 iraniens, les Switchblade américains ou encore les Lancet russes. «Tous ces drones sont munis de bombes intelligentes, équipés de caméras intelligentes ainsi que de systèmes de guidage par laser et ils contiennent des explosifs de 3 à 40 kg», explique Patricia Gautrin. 

Leur système d’intelligence artificielle est programmé pour reconnaître une cible et frapper à ce moment-là: un regroupement de soldats, une ligne de chars d’assaut ou encore une installation jugée dangereuse. Le robot effectue la commande qu’on lui a donnée. «Mais des erreurs peuvent se produire. En Ukraine, une école a ainsi été confondue avec un bâtiment susceptible d’abriter soldats et munitions», précise Patricia Gautrin. 

Doter les robots d’une moralité grâce à l’apprentissage profond

Que faire pour éviter que de nouvelles erreurs dramatiques surviennent? Programmer différemment les drones? S’il y a le moindre doute au moment où le drone doit larguer sa charge explosive, Patricia Gautrin propose les trois actions suivantes:  

  • on arrête complètement le processus; 
  • on demande à une intelligence humaine d’intervenir; 
  • si ce n’est pas possible, on s’en remet aux principes éthiques que le robot aura appris. 

La troisième action représente tout un défi! Comment apprendre à un robot à s’autogérer et à avoir un comportement éthique? Patricia Gautrin veut utiliser la théorie des ensembles en apprentissage profond. Pour cela, elle va prendre en considération la multiplicité des facteurs qui permettent de prendre une décision: la situation particulière, l’expérience, les cadres de référence… 

«Pour prendre une décision en tant qu'individu, on évalue différentes options, on trouve un équilibre, puis on agit. On fait référence à son vécu empirique et à son cadre de valeurs», indique-t-elle. 

Plusieurs cadres de référence, qu’ils soient politiques, religieux ou autres, devront être pris en compte pour enseigner la moralité aux algorithmes.  

Comment répondre à nos dilemmes moraux?

«Aucune décision de vie ou de mort ne devrait être prise par une machine.» Cette déclaration du groupe de réflexion Future of Life Institute a été signée en 2018 par plus de 200 organisations dans le monde comme DeepMind et Mila – l’Institut québécois d’intelligence artificielle – ou par des personnalités telles qu’Elon Musk et Yoshua Bengio. Comment mettre en pratique cette déclaration? Quelle moralité enseigner aux robots? 

«Jusqu’à présent, on pensait à évaluer la teneur morale selon une approche conséquentialiste et individualiste. Mais on semble faire fausse route: ce qui est bien pour une personne ne l’est pas forcément pour l’autre. Et si l’on s’en remettait à la sagesse telle qu’enseignée par les anciens qui se sont penchés sur la vertu et le bien commun pour réfléchir à la façon de bien vivre dans une ville? Leur philosophie empirique, passant par l’expérience, ouvre la porte à l’apprentissage moral», mentionne Patricia Gautrin. 

Alors que des robots sont en train d’être programmés, elle pense à appliquer une «éthique by design», c’est-à-dire encapsuler des conceptions éthiques au moment même de la programmation. Le but: agir dès maintenant, tant qu’il est encore temps, avant de laisser les machines prendre des décisions à notre place.