Comment rendre l'IA plus sûre?

Le sommet sur la sécurité de l'IA poursuit les objectifs suivants: examiner les risques de l'intelligence artificielle et discuter de la manière dont ils peuvent être atténués par une action coordonnée sur la scène internationale.

Le sommet sur la sécurité de l'IA poursuit les objectifs suivants: examiner les risques de l'intelligence artificielle et discuter de la manière dont ils peuvent être atténués par une action coordonnée sur la scène internationale.

Crédit : Getty

En 5 secondes

Yoshua Bengio et Catherine Régis participeront à l’AI Safety Summit en Angleterre.

Yoshua Bengio et Catherine Régis

Yoshua Bengio et Catherine Régis

Crédit : Amélie Philibert, Université de Montréal

Les 1er et 2 novembre, des experts mondiaux de l'intelligence artificielle (IA) se réuniront à Bletchley Park, dans le Buckinghamshire, en Angleterre, à l'occasion de l'AI Safety Summit 2023. Deux professeurs de l'Université de Montréal figureront parmi les participants: Yoshua Bengio, pionnier de l'IA, et Catherine Régis, spécialiste du droit de la santé.

Membres de Mila, l'Institut québécois d'intelligence artificielle, ils se joindront à un groupe exclusif de représentants de gouvernements nationaux, de grandes entreprises d'IA, de groupes de la société civile et de chercheurs pour examiner les risques en matière de sécurité de l'intelligence artificielle, alors qu'elle alimente de plus en plus la croissance économique, stimule le progrès scientifique et s'étend à la sphère publique dans des domaines aussi variés que les soins de santé et la cybersécurité.

Déjà largement entendu sur ces questions, le professeur Bengio a réitéré ses préoccupations la semaine dernière dans une lettre ouverte qu'il a cosignée avec 23 collègues d’autres pays et dont le journal The Guardian a fait un reportage. Nommée coprésidente, au début de l’année 2022, du groupe de travail sur l'IA responsable du Partenariat mondial sur l'intelligence artificielle, la professeure Régis se fera également entendre en tant que juriste spécialiste de l'IA.

«Ce sommet représente une étape importante dans l’élaboration de nouveaux jalons de collaboration et de gouvernance mondiales de l’intelligence artificielle», a-t-elle déclaré la veille de son départ pour le Royaume-Uni, où les participants seront accueillis par le premier ministre britannique, Rishi Sunak.

«Alors que les actions législatives, en recherche interdisciplinaire et autres, sont essentielles à l’échelon des États, ce sont celles qui seront prises à l’échelle internationale qui auront, à mon avis, le plus d’influence, considérant l’effacement des frontières en IA», a-t-elle ajouté.

Il s'agit notamment de la protection des institutions démocratiques, des violations des droits de la personne à grande échelle, des cyberattaques, des initiatives mondiales en matière de santé, etc. «Et c’est d’autant plus important que je n’entrevois pas quand l’IA cessera de se développer à un rythme fulgurant», a soutenu Catherine Régis.

Le sommet sur la sécurité de l'IA poursuit les objectifs suivants: examiner les risques de l'intelligence artificielle, en particulier pour ce qui est de son développement, et discuter de la manière dont ils peuvent être atténués par une action coordonnée sur la scène internationale.

«Les modèles d'IA d'avant-garde recèlent un potentiel énorme en termes de croissance économique, de progrès scientifique et d’avantages pour le public, mais ils présentent également des risques pour la sécurité s'ils ne sont pas conçus de manière responsable», peut-on lire sur le site Web de la rencontre.

Bletchley Park est un lieu important dans l'histoire du développement de l'informatique et a été le siège du décryptage du code Enigma. Les participants y élaboreront une série de mesures rapides et ciblées pour renforcer la sécurité relative à l'utilisation de l'IA dans le monde.

Au cours du sommet, cinq sujets occuperont les participants:

  • une compréhension commune des risques posés par l'IA d'avant-garde et de la nécessité d'agir;
  • un processus de collaboration internationale sur la sécurité de l'IA d'avant-garde, y compris la meilleure façon de soutenir les cadres nationaux et internationaux;
  • les mesures appropriées que les organisations devraient prendre individuellement pour accroître la sécurité de l'IA d'avant-garde;
  • les domaines de collaboration potentielle en matière de recherche sur la sécurité de l'IA, y compris l'évaluation des capacités des modèles et l'élaboration de nouvelles normes pour soutenir la gouvernance;
  • montrer comment son développement sûr permettra à l'intelligence artificielle d'être utilisée à bon escient dans le monde entier.

Pour en savoir plus

Lire le document de travail du sommet de 45 pages (en anglais) intitulé «Capacités et risques de l'IA pionnière: un document de discussion sur la nécessité de poursuivre la recherche sur les risques liés à l'IA».