Pour une intelligence artificielle qui respecte les droits des patients
- UdeMNouvelles
Le 12 novembre 2019
- Martin LaSalle
La professeure Catherine Régis a illustré en quoi la Déclaration de Montréal IA responsable peut guider l’utilisation de l’intelligence artificielle dans les soins de santé.
Quand le médecin sera-t-il tenu pour responsable de l’utilisation ‒ ou de la non-utilisation! ‒ de l’intelligence artificielle en santé en cas de diagnostic erroné? Quand et pour quelle raison une personne malade pourra-t-elle avoir recours à un robot qui effectuera le suivi de ses traitements? Et comment assurera-t-on la confidentialité et la sécurité des renseignements recueillis pour faire le suivi numérique du patient?
Ce sont là quelques scénarios qu’a évoqués la professeure Catherine Régis, de la Faculté de droit de l’Université de Montréal, pour illustrer les balises de nature éthique et éventuellement juridique que pose la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (IA) afin de guider les débats autour du recours à l’IA dans les soins de santé.
Mme Régis a livré sa communication le 4 novembre au colloque «La santé connectée à l’heure de l’intelligence artificielle : quelles expériences et quels besoins pour les patients?» à l’occasion des 32es Entretiens Jacques-Cartier.
La professeure s’est servie de situations hypothétiques pour mettre en lumière la pertinence des principes de la Déclaration de Montréal dans le domaine de la santé et surtout pour montrer comment le législateur pourrait s’appuyer sur cette déclaration pour proposer l’encadrement juridique de l’IA en santé.
Un patient branché en tout temps?
Le premier cas de figure évoqué par Mme Régis est celui où un robot serait requis en permanence au domicile du patient afin de lui prodiguer des conseils et d’effectuer des rappels, en plus de recueillir des données sur son état de santé qui pourraient être transmises au personnel soignant ou à des membres de sa famille.
La Déclaration de Montréal stipule qu’un espace d’intimité ‒ où le patient n’est pas soumis à une surveillance ou à une évaluation numérique ‒ doit être protégé de l’intrusion des systèmes d’intelligence artificielle ou d’acquisition et d’archivage des données personnelles.
«La transposition juridique de ce principe pourrait prendre la forme d’un droit à la déconnexion, déjà présent dans certains pays et dans certains secteurs, qui permettrait aux individus de se déconnecter de la vie numérique», a indiqué Catherine Régis.
Que faire en cas d’erreur?
Par ailleurs, on peut imaginer que les priorités d’allocation des soins dans les établissements de santé ‒ comme une interruption momentanée de soins ‒ seront analysées en temps réel par des algorithmes.
La Déclaration de Montréal recommande que toute erreur de fonctionnement ou faille des systèmes d’intelligence artificielle soit impérativement signalée aux autorités publiques compétentes, aux parties prenantes et aux personnes touchées par la situation.
«Sur le plan juridique, ce principe pourrait se transposer en déclaration obligatoire destinée aux usagers des services de santé des incidents incluant l’IA dans un registre accessible aux autorités pertinentes», estime la professeure de droit.
Des défis pour demain
Les défis à relever pour le législateur qui doit encadrer le développement de l’intelligence artificielle sont nombreux et des outils comme la Déclaration de Montréal fournissent des repères normatifs utiles à cette fin.
Pour Catherine Régis, l’encadrement de l’IA devra pouvoir s’adapter aux nouvelles connaissances qui émergeront de l’utilisation de l’intelligence artificielle dans le domaine de la santé, et il sera important de conserver le processus de coconstruction vivant, en faisant notamment participer les patients et les professionnels de la santé.
«Il faudra être courageux sur le plan de l’encadrement, en maintenant un équilibre entre le soutien à l’innovation et la protection adéquate des droits des individus, a conclu Catherine Régis. Nous devrons garder un esprit critique sain et dynamique face à l’intelligence artificielle afin de la développer d’une manière qui nous permettra, lorsque l’histoire nous jugera sur cette étape charnière de mutation sociétale, d’être fiers du progrès social pour tous que nous aurons apporté.»
Un processus de coconstruction avec les parties prenantes
Lancée le 4 décembre 2018, la Déclaration de Montréal comporte 10 principes et 60 sous-principes et recommandations de politique publique se rapportant à l’implantation de l’IA. Elle constitue, en quelque sorte, une boussole visant à encadrer le développement de l’intelligence artificielle dans l’ensemble des domaines où elle peut être utilisée.
«La Déclaration de Montréal est issue d’un processus de coconstruction auquel 500 personnes, experts, responsables publics et parties prenantes de l’industrie ainsi que des membres de la société civile ont pris part au moyen d’ateliers et de tables de discussion qui ont porté sur plusieurs thématiques, dont la santé», a précisé la titulaire de la Chaire de recherche du Canada sur la culture collaborative en droit et politiques de la santé.