Catherine Régis devient coprésidente du Groupe de travail sur l’IA responsable

Catherine Régis

Catherine Régis

Crédit : Amélie Philibert

En 5 secondes

La chercheuse et professeure de droit de l’UdeM Catherine Régis dirigera les travaux en matière d’IA responsable du Partenariat mondial sur l’intelligence artificielle.

Catherine Régis, professeure à la Faculté de droit de l’Université de Montréal, a récemment été nommée coprésidente du Groupe de travail sur l’IA responsable du Partenariat mondial sur l’intelligence artificielle (PMIA).

Chercheuse à Mila, l’Institut québécois d’intelligence artificielle, et titulaire de la Chaire de recherche du Canada en droit et politiques de la santé, Mme Régis s’intéresse principalement à l’encadrement juridique de l’innovation numérique et de l’IA en santé, au droit global de la santé et aux modèles innovants de pratique médicale.

Elle a participé à l’élaboration de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, notamment comme membre du comité scientifique. À titre de juriste réfléchissant sur la gouvernance et la régulation de l’IA aux échelles locale et internationale, Catherine Régis discute du PMIA et de l’importance de penser l’intelligence artificielle de manière responsable.

Pour commencer, à quoi sert le Groupe de travail sur l’IA responsable du PMIA?

Créé en 2020, le PMIA est une initiative mondiale [25 pays en sont membres à l’heure actuelle] et multipartite qui réunit plusieurs acteurs susceptibles d’influer sur le développement de l’intelligence artificielle, soit des universités, des entreprises et des représentants de la société civile. Cette organisation vise à combler le fossé entre la théorie de l’IA et son application pratique.

Notre groupe de travail s’intéresse plus particulièrement aux façons de mettre sur pied des projets et d’entreprendre de la recherche de pointe qui vont assurer un développement responsable de l’IA.

Qu’est-ce qu’on entend par «IA responsable»?

Cette expression englobe plusieurs choses. L’objectif principal est de s’assurer que les développements en IA sont centrés sur les besoins de l’humain. Bref, que les projets répondent à des objectifs qui favorisent le bien-être des individus et de la société.

Il existe différents moyens d’y parvenir. Par exemple, notre groupe de travail se base beaucoup sur l’atteinte des objectifs de développement durable de l’ONU. Il existe aussi d’autres guides pour aider à définir cet enjeu, comme les droits de la personne, la déclaration de Montréal et la récente Recommandation sur l’éthique de l’intelligence artificielle de l’UNESCO.

Quelles seront vos priorités dans le cadre de vos nouvelles fonctions?

Tout d’abord, j’aimerais proposer un projet axé sur les droits de la personne, encore une fois dans un souci de réduire l’écart entre les principes et la pratique. Comme juriste préoccupée par l’IA responsable, c’est un thème qui me semble fondamental.

Ensuite, nous allons continuer à faire avancer les deux projets phares du groupe de travail amorcés pendant la coprésidence de mon prédécesseur Yoshua Bengio, soit ceux portant sur les changements climatiques et les médias sociaux.

Aussi, nous souhaitons travailler à augmenter la représentation des voix du Sud au sein de notre groupe de travail et du PMIA. Je crois fermement qu’une interaction forte entre les pays du Nord et du Sud est importante pour développer une intelligence artificielle responsable et qui ne laisse personne pour compte. À titre d’exemple, il faut s’assurer que les voix des pays d’Afrique sont représentées.

Finalement, nous voulons amplifier la visibilité du PMIA et la portée de ses travaux pour atteindre nos objectifs. Pour ce faire, il faut travailler à solidifier les liens entre les gouvernements et les acteurs du PMIA afin que les gouvernements se sentent concernés et responsables lorsque nous faisons des propositions d’action.

À quels types de dérives peut-on s’exposer dans l’éventualité d’un développement mal encadré de l’intelligence artificielle?

Il y en a plusieurs, il faut être vigilants. On s’expose à une IA qui instrumentaliserait l’humain, qui n’aiderait pas à atteindre les objectifs d’égalité, de dignité, de santé et de bien-être des individus entre autres. Elle pourrait même amenuiser ces objectifs, créer des inégalités plus grandes, notamment entre le Sud et le Nord, mais aussi entre les individus, et renforcer les dynamiques de pouvoir néfastes pour la démocratie – comme nous pouvons pu le voir avec l’utilisation des médias sociaux dans certaines circonstances.

Un développement responsable de l’intelligence artificielle, plutôt que l’intelligence artificielle à tout prix, c’est la clé. Cette exigence de responsabilité peut requérir plus de temps pour son développement, mais les retombées à moyen et à long terme en seront accrues pour les sociétés. C’est fondamental pour mettre l’IA au service de l’humain et favoriser son implantation bénéfique pour les générations à venir.