Intelligence artificielle: où commence la notion de conscience?

En 5 secondes Une conférence a exploré la conscience de l’IA à travers la philosophie, les neurosciences et le droit, soulevant des questions éthiques, scientifiques et sociétales majeures.
La conférence «Intelligence artificielle: où commence la notion de conscience?» était la toute première conférence organisée par MONIC (Montreal Initiative for Consciousness)

Une centaine de personnes se sont réunies le 19 mars au campus MIL pour assister à la conférence «Intelligence artificielle: où commence la notion de conscience?» Cette toute première conférence organisée par MONIC (Montreal Initiative for Consciousness), un regroupement étudiant en neurosciences, psychologie et psychiatrie de l’Université de Montréal, proposait d’«explorer les frontières de la conscience entre biologie, philosophie et intelligence artificielle». 

Pour éclairer ce débat, trois experts ont apporté leur contribution: Guillaume Dumas, professeur au Département de psychiatrie et d'addictologie de l'UdeM et chercheur au CHU Sainte-Justine et à Mila – l’Institut québécois d'intelligence artificielle –, Jonathan Simon, professeur au Département de philosophie de l'UdeM, et Heather Alexander, experte en droit international et en identité juridique des systèmes d'intelligence artificielle (IA). 

Les échanges ont été précédés d’interventions d’Hicham Maazouz, Evaelle-Maryse Alcimé, Anne Calvel et Coralie Periard-Mailloux, qui ont remporté le concours de vulgarisation scientifique de MONIC. Ces étudiants en psychologie ont présenté en quelques minutes les résultats de leurs travaux sur la conscience. 

Penser la conscience: un débat philosophique toujours ouvert

Dès les premières minutes, les participants ont été invités à voter afin de déterminer si un système d’intelligence artificielle pouvait être conscient. La moitié de la salle a répondu oui et l’autre moitié non! Le maître de cérémonie Nicholas Belliveau a alors donné le ton: «Je ne vous promets pas des réponses, mais peut-être de meilleures questions.» Il a alors replacé la question initiale dans une perspective historique. «L’étude de la conscience intéresse l’humain depuis 2500 ans», a-t-il dit, évoquant les réflexions de Platon et d'Aristote en passant par celles de Descartes jusqu’aux travaux du 20siècle, notamment ceux d’Alan Turing. 

Jonathan Simon a ensuite proposé de structurer ce débat à l'aide d'une métaphore musicale. Il a comparé la conscience à un «accord pur» en musique, puis a distingué trois manières de concevoir la relation entre les systèmes d'intelligence artificielle et cet accord. Une instance de réseau de neurones artificiels est comparable soit à quelqu'un qui lirait une partition à voix haute (c'est-à-dire que l’instance ne ferait que représenter l'accord sans jamais le jouer), soit à une version synthétique basse-fidélité de l'accord ou à une version synthétique haute-fidélité. Ces deux dernières options sont des manières dont l'IA serait elle-même de la musique plutôt que d'en parler simplement. Sans trancher entre ces trois modèles, il les a présentés comme autant de positions qu'on pourrait défendre dans le débat actuel. 

Cette analogie ouvre sur une question plus profonde, inspirée de celles que posait Socrate dans l'Euthyphron: «Est-ce que les systèmes d'IA fonctionnent bien parce qu'ils modélisent le cerveau ou est-ce que le cerveau fonctionne bien parce qu'il approxime les systèmes d'IA?» Autrement dit, l'intelligence artificielle reproduit-elle simplement des mécanismes biologiques ou révèle-t-elle quelque chose de fondamental sur la nature même de la cognition? 

Jonathan Simon a ensuite rappelé l'expérience de pensée de la «chambre chinoise» que John Searle imagina dans les années 1980, selon laquelle une machine pourrait manipuler des caractères chinois de manière parfaitement cohérente sans jamais en comprendre la signification. Mais loin d'invoquer cet argument pour souligner les limites de l'approche algorithmique, il a au contraire fait valoir que, si l'argument semble démontrer l'impossibilité d'une compréhension, voire d'une conscience, véritablement algorithmique, il ne s'applique en réalité qu'aux systèmes symboliques classiques de l'IA traditionnelle (ou GOFAI, pour good old-fashioned artificial intelligence) et ne montre nullement une telle limite lorsqu'il s'agit de réseaux de neurones artificiels. 

Une réalité scientifique plus complexe qu’il y paraît

«Je ne suis pas Guillaume» a pu ensuite entendre l’auditoire mi-amusé, mi-inquiet. Cette voix provenait du téléphone du neuroscientifique Guillaume Dumas et imitait ce dernier. Le professeur a alors pris la parole: «Ces agents conversationnels vont emprunter des voix. Ils pourraient même emprunter des corps dans le futur. J'ai rencontré des chercheurs à l'Université de Tokyo qui placent des cœurs artificiels dans des robots. On pourrait aller vers quelque chose de plus incarné. Cela nous amène à nous demander comment penser la conscience au-delà du langage.» 

Le chercheur a commencé par déclarer que la conscience n’était pas un concept unifié: «Quand on parle de conscience, on ne parle pas juste d’un interrupteur allumé ou éteint.» On peut parler de l’état d’éveil, d’être conscient ou plongé dans un coma, mais aussi de son expérience subjective, c’est-à-dire de ce que cela fait d’être soi, et enfin de la conscience de soi, liée à la construction d’une identité dans le temps. Cette pluralité de sens rend les comparaisons avec l’intelligence artificielle particulièrement délicates.  

«Si je demande à un agent conversationnel de dire “Je suis conscient”, il pourra le répéter. Mais cela nous montre que notre langage est fragile et peut jouer avec notre capacité de discernement. Un agent conversationnel pourrait aussi raconter une histoire sur lui-même, construire une forme de “soi narratif”, mais cela ne voudrait pas dire qu’il vit quelque chose», a-t-il précisé. 

En outre, la conscience ne serait pas uniquement un phénomène individuel, enfermé dans notre cerveau. Ses recherches démontrent que les interactions sociales peuvent entraîner une synchronisation de l’activité cérébrale entre individus. Cela donne à penser que la conscience pourrait en partie émerger de la relation à l’autre. «En tant qu’humains, nous sommes pris en sandwich entre la coordination de nos neurones et la coordination avec les autres humains», a résumé Guillaume Dumas. 

Dans ce contexte, l’intelligence artificielle ne se limite plus à une entité isolée. Elle s’inscrit dans des réseaux d’interactions, parfois entre plusieurs agents artificiels, comme récemment dans le réseau Moltbook. «On voit émerger des comportements inattendus quand des agents interagissent entre eux», a-t-il noté, ouvrant la porte à l’hypothèse d’une forme de conscience collective. 

Quand la conscience de l’IA devient une question juridique

Heather Alexander a ensuite demandé: «Comment la loi devrait aborder les systèmes d’IA? Si l’on pense que l’IA est consciente, que fait-on de cette information?» 

Elle a rappelé que le droit canadien repose sur une distinction fondamentale entre les personnes, qui possèdent des droits et des responsabilités, et les objets, qui n’en ont pas. Dans ce cadre, les robots et les systèmes d’intelligence artificielle sont encore considérés comme des biens, au même titre qu’un meuble par exemple. Mais cette classification pourrait être remise en cause si l’on reconnaissait une forme de conscience aux machines.  

Dans l’État du Tennessee, certaines initiatives législatives visent même à interdire explicitement toute reconnaissance d’une personnalité juridique aux intelligences artificielles. «Il y a des politiciens qui s’inquiètent du fait que des humains développent des relations émotionnelles avec l’IA», a mentionné l’experte en droit international et en identité juridique des systèmes d'intelligence artificielle. Derrière ces débats se cache une série de choix. Faut-il accorder aux IA un statut similaire à celui des entreprises, soit celui de «personnalité morale» comme l’est l’Université de Montréal, qui permettrait d’encadrer leur responsabilité?  

Peut-on aller plus loin et envisager des droits, comparables à ceux des êtres humains: celui de voter, de se marier, de ne pas faire de travail forcé? Mais cela indiquerait alors une refonte totale de notre société. Que penser d’une société qui a accordé un statut de citoyenne à l’IA Sophia, alors que de nombreux humains n’ont pas le droit de vote?  

Responsabilité, biais et enjeux démocratiques

Une table ronde avec les chercheurs a ensuite permis de confronter ces réflexions à des préoccupations très concrètes de la part de l’auditoire. L’une des questions centrales des échanges a porté sur la responsabilité: qui doit répondre des actions d’une intelligence artificielle, surtout lorsque son fonctionnement reste partiellement opaque? Qu’aurait-on dû faire lorsque l’agent conversationnel Grok a généré des images pornographiques d'enfants et d’adolescents à partir de véritables photos? 

Pour Heather Alexander, l’attribution d’une personnalité morale pourrait offrir une solution pragmatique en rendant les entreprises entièrement responsables des systèmes qu’elles conçoivent. Mais cette option n’est pas la seule. «On peut aussi décider, comme société, que les compagnies sont responsables en tout temps», a-t-elle signalé, évoquant le principe de responsabilité stricte. Le professeur de psychiatrie informatique Guillaume Dumas a établi un parallèle avec le lithium: même si l’on ne sait pas précisément comment cet élément fonctionne, une loi existe quant à son utilisation. 

Les discussions ont également mis en lumière des considérations plus larges, liées aux répercussions sociales et politiques de l’intelligence artificielle. Guillaume Dumas a soulevé notamment les risques de biais culturels et d’influence sur les systèmes juridiques eux-mêmes. «Il y a une forme d’impérialisme culturel qui s’opère», a-t-il observé, en référence à l’utilisation d’outils d’IA dans certains contextes juridiques. 

La question de la régulation internationale a également été abordée. Comparativement à d’autres enjeux globaux, comme les armes nucléaires ou les changements climatiques, l’intelligence artificielle pose un défi particulier en raison de sa rapidité de développement et de ses retombées économiques.

Une réflexion qui n’est pas uniquement liée à la technologie

Au fil de la soirée, il est apparu que la question de la conscience artificielle ne concerne pas seulement les machines, mais aussi notre rapport au vivant et à nous-mêmes. 

Plusieurs intervenants ont souligné les parallèles avec les débats sur les droits des animaux, eux aussi considérés juridiquement comme des objets malgré les preuves croissantes de leur sensibilité. «Les animaux n'ont pas de droits et ils n'ont pas de responsabilités. Si un chien attaque quelqu'un, c'est la personne qui est responsable du chien qui sera mise en cause. On ne met pas le chien en prison parce que le chien n'est pas responsable, selon le droit», a expliqué Heather Alexander. 

Pour Jonathan Simon, ces réflexions sur le droit animalier et le droit de l’IA pourraient converger. «Il faut se demander de façon générale quoi faire avec des êtres vivants non humains et des outils technologiques», a-t-il affirmé, évoquant le fait que différents chercheurs pensent ensemble ces questions dans son laboratoire.  

En conclusion, Guillaume Dumas a invité l’auditoire à déplacer son regard: «La question, ce n’est pas seulement de savoir si les machines sont conscientes, mais ce qu’on fait, nous, de notre conscience dans cette histoire.» 

Partager