L'intelligence artificielle est-elle une bombe à retardement?

  • Forum
  • Le 9 février 2015

  • Mathieu-Robert Sauvé

Le physicien et mathématicien Stephen Hawking et l'homme d'affaires Elon Musk, cofondateur de PayPal, ont lancé une polémique dans les derniers mois en comparant l'intelligence artificielle à l'arme nucléaire.

 

Le physicien et mathématicien Stephen Hawking et l'homme d'affaires Elon Musk, cofondateur de PayPal, ont lancé une polémique dans les derniers mois en comparant l'intelligence artificielle à l'arme nucléaire. Selon M. Musk, la «bombe I» pourrait être plus dévastatrice encore que la bombe atomique. Faut-il craindre l'intelligence artificielle? Pas selon Xavier Bouthillier, qui lui consacre une thèse de doctorat au Département d'informatique et de recherche opérationnelle de l'Université de Montréal. «La plupart des craintes semblent être basées sur une vision de l'intelligence artificielle qui est très proche de la science-fiction et ne correspond pas à l'état actuel de la recherche dans ce domaine. Or, jusqu'à ce jour, ces craintes éclipsent du débat les risques réels que pose l'intelligence artificielle telle qu'elle existe maintenant», prétend l'étudiant, qui déplore l'association trop rapide entre science et science-fiction.

«Dans l'état actuel des choses, l'intelligence artificielle ne présente aucun danger de contrôle de la pensée, poursuit-il en entrevue à Forum. Elle ne fait que répondre à la programmation humaine. Ainsi, les dangers imminents découlent de l'utilisation que l'être humain en ferait.»

Cela dit, la discipline choisie par Xavier Bouthillier fait d'indiscutables progrès, et ces avancées pourraient être utilisées à mauvais escient si elles parvenaient entre des mains inappropriées. «Je pense à l'accumulation de renseignements personnels sur Internet. Il faut être vigilant de ce côté afin de ne pas laisser ces informations servir à de mauvaises fins.»

Dans une lettre ouverte publiée dans Le Devoir le 29 janvier, M. Bouthillier et Marc-Élie Lapointe, qui enseigne les mathématiques au Collège de Maisonneuve, dénoncent le «tapage médiatique» autour de la sortie publique de MM. Hawking et Musk, à laquelle Bill Gates a joint sa voix récemment. Avec tout le respect qu'on leur doit, aucun d'entre eux n'est un spécialiste de l'intelligence artificielle, font-ils valoir. Une autorité en la matière, Yoshua Bengio, professeur à l'Université de Montréal, mentionnait récemment que «les meilleurs algorithmes qu'on a aujourd'hui sont encore à un niveau d'intelligence très, très primitive».

Se préoccuper des dangers d'une intelligence parallèle reviendrait, selon les signataires de la lettre du Devoir, à s'alarmer de l'usage militaire des drones au moment du premier vol des frères Wright ou ce serait comme «si les Égyptiens de l'Égypte antique s'étaient inquiété des dangers de l'industrialisation».

Xavier Bouthillier ne réfute pas le concept de «singularité technologique», ce point de convergence entre les intelligences humaine et artificielle, mais bien malin qui pourrait prédire le moment où on l'observera. «En effet, le cerveau biologique est d'une complexité inouïe et les présents modèles mathématiques qui s'en inspirent n'en sont que de grossières caricatures. Cette comparaison permet d'apprécier l'ampleur de la tâche qui attend les chercheurs avant de pouvoir s'approcher le moindrement d'un système artificiel doté d'une intelligence analogue à celle de l'être humain.»

Dans les prochaines années, l'étudiant cherchera à apporter des améliorations aux modèles mathématiques de réseaux de neurones artificiels existants. Voilà un secteur où les progrès de la science ont été perceptibles pour le commun des mortels. La reconnaissance visuelle et sonore est aujourd'hui appliquée dans le domaine des télécommunications.

Allô! On est loin d'une mainmise de la machine sur l'humain...

Mathieu-Robert Sauvé

(Illustration : Benoît Gougeon)