Le comportement des machines

Crédit : Getty

En 5 secondes

Selon Marc Lanovaz, psychoéducateur à l'UdeM, il est temps que la science du comportement dépasse le cadre de l'humain et s'intéresse aux machines.

Marc Lanovaz

Marc Lanovaz

Crédit : Université de Montréal

Les comportements humains font l'objet d'études scientifiques depuis au moins un siècle: elles portent sur les façons dont nous réagissons non seulement les uns par rapport aux autres, mais aussi à l’égard de notre environnement extérieur. Aujourd'hui, à l'ère des algorithmes, des robots, des agents conversationnels (chatbots), des systèmes de reconnaissance vocale, des fonctions d'autocomplétion et des voitures autonomes, le monde universitaire serait-il prêt pour une nouvelle façon d'étudier le comportement: en analysant celui des machines?

Marc Lanovaz le pense. Professeur à l’École de psychoéducation de l'Université de Montréal et chercheur au Centre de recherche de l'Institut universitaire en santé mentale de Montréal, affilié à l'UdeM, il plaide dans un nouvel article en faveur d'une science de l'analyse du comportement des machines. Cet article, publié le 31 mars dans la revue américaine Perspectives on Behaviour Science, a été présenté comme l'article de la semaine.

Nous avons demandé au professeur Lanovaz de développer sa proposition.

Si l'intelligence n'est plus considérée comme limitée aux êtres vivants au sens biologique du terme, pourquoi les universitaires ne parlent-ils pas déjà du comportement des machines?

En fait, les universitaires s'intéressent déjà au comportement des machines. Cependant, cette analyse du comportement des machines repose souvent exclusivement sur des outils conçus par et pour les ingénieurs. À mesure que les machines deviennent plus complexes, l'ingénierie traditionnelle pourrait ne pas pouvoir expliquer et contrôler tous les comportements des machines. Je propose d'appliquer ce que nous avons appris sur le comportement des humains et d'autres organismes vivants à l'étude et à la modification du comportement des machines.

Dans votre article, vous soulignez un paradoxe, à savoir que «deux machines composées de matériel différent, mais dotées du même logiciel peuvent néanmoins produire le même comportement.» En quoi cela est-il significatif?

Cela montre que nous n'avons pas besoin d'étudier les comportements de toutes les machines pour acquérir une solide compréhension de la façon dont leur environnement les affecte. Nous pouvons donc tirer certaines généralisations en étudiant des machines ayant des fonctions similaires, comme nous le faisons avec les organismes d'une même espèce.

Vous dites aussi que «les machines seront capables d'avoir des interactions indiscernables de celles des humains». Est-ce pour bientôt?

Pensons à l'évolution des machines au cours des 20 dernières années. En 2002, l'iPhone n'existait même pas et Netflix était encore un service de location de DVD. Aujourd'hui, nous disposons de téléphones intelligents dotés d'une puissance de calcul plus importante que jamais et les algorithmes sophistiqués de Netflix permettent une diffusion en continu. Je ne sais pas où nous en serons dans 20 ans, mais nous nous dirigeons inexorablement vers une ère où les machines pourront acquérir des compétences sociales comme le font les humains.

Cette nouvelle ère de l'intelligence artificielle ne comporte-t-elle pas aussi des dangers? Vous écrivez que des robots de messagerie peuvent «mal apprendre» de nouveaux comportements.

Oui, par exemple, Microsoft a conçu un robot nommé Tay pour interagir avec les utilisateurs de Twitter. Malheureusement, Tay a appris à publier des messages offensants et discriminatoires après moins de 24 heures en interagissant avec d'autres utilisateurs. Cela montre comment des machines laissées à elles-mêmes peuvent apprendre à mal se comporter. Les analystes comportementaux disposent d'outils pour aider les ingénieurs à prévenir de tels problèmes à l'avenir.

Tout cela a un effet sur nous, les humains: Facebook, le correcteur automatique de Google, Alexa et d'autres technologies de ce type modifient notre comportement. C'est donc une voie à double sens, n'est-ce pas?

En effet. Les machines façonnent notre comportement en décidant ce qu'elles nous recommandent, mais nous influençons également le comportement des machines par la façon dont nous répondons à leurs recommandations. Cette interaction bidirectionnelle entre les comportements de l'humain et ceux de la machine nécessite une approche interdisciplinaire faisant appel à des ingénieurs et à des analystes du comportement.

Pourquoi les sciences sociales devraient-elles s'inviter dans l'étude du comportement des machines? Ne devrait-on pas laisser cette tâche aux experts en ingénierie et en programmation informatique?

Aucune de ces disciplines n'est suffisante en soi. Les ingénieurs et les programmeurs seront toujours essentiels à la mise au point et à la maintenance des machines, mais les analystes du comportement peuvent apporter une contribution allant au-delà du codage. Ils ont élaboré des méthodologies bien adaptées à l'examen de l'influence des évènements extérieurs sur la réaction des machines.

Vous concluez votre article en citant B. F. Skinner, célèbre psychologue du comportement. En 1969, il affirmait que «l'homme est une machine, mais c'est une machine très complexe». Était-ce prémonitoire?

Oui, et ma proposition d'une science de l'analyse du comportement des machines reste cohérente avec cette conceptualisation originale de l'être humain. À l'époque de Skinner, les comportements des machines n'étaient probablement pas assez complexes pour justifier leur propre domaine de recherche. Avec l'évolution de la puissance de calcul et des algorithmes, les chercheurs ont maintenant atteint un point où une compréhension de l'ingénierie n'est souvent pas suffisante. Nous devons débattre davantage de la possibilité de faire intervenir des analystes du comportement. En fin de compte, nous voulons tous que les machines soient là pour le bien de l'humanité et, pour ce faire, nous devons mieux comprendre ce qui les fait fonctionner.