La différence entre un être humain et une machine n’a pas d’importance
- UdeMNouvelles
Le 9 mai 2023
- Virginie Soffer
Dans des propos teintés d’humanisme, Marcello Vitali-Rosati propose de prendre l’intelligence artificielle à contrepied.
Alors que des chercheurs en intelligence artificielle comme Yoshua Bengio réclament un encadrement de cette technologie dont les développements progressent à une vitesse vertigineuse, nous nous sommes entretenus avec Marcello Vitali-Rosati, philosophe et professeur au Département des littératures de langue française de l’Université de Montréal, pour qui la différence entre un être humain et une machine n’a pas d’importance.
Il a pris la parole le 9 mai dans le cadre du 90e Congrès de l’Acfas au colloque sur le thème «Approches numériques en histoire de la culture au Québec».
Qu’est-ce qui différencie l’intelligence humaine de l'intelligence artificielle?
Il me semble que la question n’est pas tellement de savoir en quoi l’intelligence humaine se différencie de l’intelligence artificielle, mais plutôt de comprendre pourquoi nous tenons autant à cette différence. Les êtres humains veulent à tout prix être différents, uniques et ils se définissent en s’opposant à autre chose. La machine sait calculer mieux que je le fais, donc je dois être quelque chose d'autre qu’une machine à calculer. Je me dis alors que je me distingue par l’intuition. Mais des machines gagnent aux échecs et au jeu de go, par conséquent elles doivent aussi avoir une forme d’intuition. Serait-ce plutôt le langage naturel qui me définit? Mais ChatGPT change la donne. Ou la créativité? Mais des logiciels peuvent aujourd’hui peindre des œuvres d’art ou créer des morceaux de musique.
Qui court derrière qui? L’intelligence artificielle essaie-t-elle de rejoindre une prétendue intelligence humaine ou est-ce plutôt l’inverse? Essayons-nous de nous définir par opposition à des machines?
Un bras de fer est mis en scène dans lequel il y aurait d’un côté l’être humain avec son intelligence, qui serait quelque chose de donné, et de l’autre côté des machines, qui seraient elles aussi bien identifiées et qui seraient en train d’essayer d’atteindre le niveau d’intelligence des êtres humains. Il y a un rapport de codéfinition récursif de ce qu’est l’intelligence humaine et de ce qu’est l’intelligence artificielle. Nous nous définissons en tant qu’êtres humains par rapport à ce que nous nommons comme «autres».
Cette façon qu’a l’humain de se définir n’est pas nouvelle et date d’avant les machines. Pouvez-vous nous en dire plus?
En effet, nous le faisions auparavant avec les animaux. Si un animal sait faire quelque chose, je dois faire quelque chose de plus que l’animal ne peut accomplir. Par exemple, je dois posséder un langage. Aristote définissait l’être humain comme un animal qui a le langage. Mais on découvre que les animaux ont aussi un langage, alors il faut quelque chose d'autre et on déplace le problème. Peut-être est-on un animal politique? La question se déplace-t-elle alors de nouveau?
C'est peut-être un intérêt d’ordre existentiel qui se manifeste quand nous nous demandons «Qui suis-je finalement, de quelle manière puis-je me définir et comment puis-je faire en sorte de ne pas être réductible à quelque chose d'autre?» C'est très primaire comme type de besoin. Pourrait-on le dépasser?
Pourquoi faudrait-il dépasser ce besoin?
Ce type de besoin peut donner lieu à de multiples aberrations et violences. Si je veux me définir d'une certaine manière par rapport aux autres, c’est bien souvent pour me définir en tant qu’être supérieur.
Cela est arrivé quand nous nous sommes définis comme «autres» par rapport aux animaux, alors que nous sommes nous-mêmes des animaux. En arrivant à la conclusion que nous sommes supérieurs, nous en avons déduit que nous pouvions disposer de ces autres êtres comme bon nous semble et ne pas prendre en compte leur souffrance.
La même chose s’est produite pour la question du genre avec une définition qui s’est cristallisée à partir d’Aristote. L’être humain était perçu comme un homme. Une femme était alors considérée comme autre; c’était un homme un peu manqué. Il en a découlé toutes sortes de violences.
Quand nous faisons des essentialisations de ce type, des risques éthiques et politiques en résultent. Dès que nous commençons à circonscrire de façon rigide ce qu'est l'être humain, le risque fondamental est d'exclure quelqu'un. Cette exclusion peut devenir violente. Nous l’avons fait par le passé avec des questions de racisme, de sexisme, de maltraitance envers les animaux.
Chercher les différences entre un être humain et une machine ne me semble pas important. Mon inquiétude n'est pas, bien sûr, que nous maltraitions les machines. Par contre, la démarche consistant à vouloir se définir une fois pour toutes est dangereuse. Il me semble plus intéressant d’étudier quels sont ces jeux de définitions, de négociations de ce qu’est l’humain et comment les choses qui nous semblent les plus humaines changent. Est-ce que c'est le fait de parler? de sentir? d’avoir des émotions? d'aimer? d'avoir des intuitions? Mais du coup, qu'est-ce qu'une intuition, est-ce qu'on peut la définir?
Et si nous nous servions plutôt de l’intelligence artificielle pour valider la définition de qui nous sommes en tant qu’humains ainsi que d’autres définitions?
Comment l’intelligence artificielle peut-elle aider à donner des définitions claires?
En créant certaines approches algorithmiques, nous sommes portés à donner des définitions non ambigües de certains concepts. Par exemple, quand nous créons un algorithme qui joue aux échecs, nous sommes en train de donner une définition formelle de ce que signifie jouer aux échecs. Quand nous créons un algorithme capable de manipuler le langage naturel, nous sommes en train de définir ce que signifie le langage naturel.
Nous proposons des définitions formelles, qui sont ensuite intégrées dans des algorithmes. Plutôt que de confronter les performances des algorithmes avec celles des êtres humains, nous pourrions utiliser des algorithmes pour définir des modèles plus clairs de l’intelligence, d’un mot, d’une structure, d’une langue.
Vous proposez d’utiliser des algorithmes pour définir un concept. C’est ce que vous faites dans le projet sur l’«Anthologie palatine»?
Oui, je travaille avec Dominic Forest, professeur à l’École de bibliothéconomie et des sciences de l’information, et Elsa Bouchard, professeure au Département de philosophie. Nous sommes en train d’analyser un corpus hétérogène d’épigrammes grecques, un recueil de textes écrits entre le 6e siècle avant Jésus-Christ et le 10e après. Dans ce corpus, souvent, une épigramme est la variation d’une autre épigramme. Ainsi, deux ou plusieurs épigrammes disent plus ou moins la même chose, racontent la même histoire, mais avec des mots différents.
Nous définissons d’abord ce que sont les variations en étudiant le corpus. Ainsi, nous établissons si le nombre de mots est semblable, si la structure est différente. Ensuite, nous essayons de donner une définition du concept de variation la plus précise qui soit. Une fois que la définition est donnée, nous tentons de l’intégrer dans un algorithme qui sera la définition formelle de notre concept littéraire de variation.
Pour vérifier que notre définition est la bonne, nous allons demander à l’algorithme de trouver ce que nous savons déjà. Le concept de variation a été bien défini si l’algorithme trouve la variation que nous connaissons. L’algorithme nous sert à valider un concept et n’est pas utilisé à des fins heuristiques. Nous vérifions la vision du monde que nous proposons.
Un algorithme est-il toujours la proposition d’une vision du monde ?
Oui, un algorithme représente une vision du monde qui n’est jamais neutre, jamais objective et jamais la seule possible. Même dans l’identification de motifs, il y a toujours une partie importante d’interprétation qui se trouve dans l’algorithme.
Je me méfie des approches algorithmiques qui se présentent comme neutres. Par exemple, les algorithmes de recherche de Google nous proposent des résultats suivant leur pertinence et nous avons l’impression que ces résultats sont en effet les plus pertinents. Mais 98 % des utilisateurs ne vont pas au-delà de la première page de résultats et se contentent des 10 premières propositions. Nous considérons comme vrais les classements de pertinence que nous donne Google. Or, cette pertinence n’est pas un critère objectif, mais plutôt une vision du monde particulière. Si nous utilisons un autre moteur de recherche, nous aurons l’impression qu’il ne fonctionne pas, car le concept de pertinence est différent de celui de Google. Le concept de Google est tellement présent que nous l’avons naturalisé, ce qui est problématique.
Grâce à des développements algorithmiques, certaines visions du monde s’imposent donc et écrasent les autres en se prétendant naturelles. Quelles en sont les conséquences?
Le problème ne réside pas simplement dans les développements algorithmiques qui permettent d’intégrer différentes visions du monde. Il faudrait étudier l'ensemble des circonstances politiques, sociales, culturelles qui ont permis leur mise en place.
Un autre exemple d’algorithme qui pourrait sembler neutre et qui est loin de l’être: Tinder. La plateforme définit d’une manière précise ce qu’est la «compatibilité» de deux personnes qui peuvent donc avoir une relation. Elle donne en quelque sorte une idée d’amour. Mais cette idée, très biaisée, propose notamment une vision du monde fortement sexiste. C’est ainsi que l’algorithme considère qu’un homme plus diplômé et âgé peut «matcher» avec une femme plus jeune ayant fait moins d’études… L’idée de relation amoureuse est ainsi définie par une compagnie de la Silicon Valley dont la plateforme diffuse des idées spécifiques, dans ce cas sexistes. Mais ce n’est pas un problème d’intelligence artificielle, plutôt un problème politique beaucoup plus vaste: qui sont les acteurs, les organisations, les entreprises qui ont le pouvoir de diffuser largement – et presque d’imposer – leurs visions du monde? Comment faire pour garantir une pluralité? Pour rester critique?
À mes yeux de philosophe, et en tant qu’être humain plus généralement, il est nécessaire d'avoir une réflexion critique sur les visions du monde derrière des approches algorithmiques et d’essayer de travailler à la multiplicité de ces visions.
La littératie numérique est donc essentielle?
Oui! J’ai très peur du peu de formation et de la naturalisation de ces nouveaux outils chez les jeunes générations, qui sont nées avec. Et il ne suffit pas de mettre des tablettes électroniques dans des salles de classe. Les enfants apprennent à utiliser une seule sorte de technologie, imposée par les GAFAM [Google, Apple, Facebook, Amazon et Microsoft], une technologie d’apparence simple et intuitive, mais qui se révèle être un choix particulier. Il faudrait davantage leur présenter des approches différentes plutôt que la même interface étriquée avec des gestes réducteurs.
Il faudrait également comprendre quelles sont les visions derrière les algorithmes au lieu de les considérer comme de sombres boîtes noires.