ChatGPT dans le tordeur de l’enseignement supérieur

Crédit : Norbert Robitaille

En 5 secondes

Une centaine de personnes s’est réunie à l’UdeM pour réfléchir aux enjeux liés à l’utilisation des agents conversationnels dans les cégeps et les universités, et aux façons de les encadrer.

L’arrivée de ChatGPT et d’autres agents conversationnels utilisant l’intelligence artificielle (IA) a ébranlé le monde universitaire et collégial. Si leur place semble grandissante dans l’enseignement, les opinions divergent quant aux avantages et aux risques de tels outils.

D’une part, on dit qu’ils peuvent aider à clarifier des concepts complexes et à structurer des idées, en plus de constituer des tuteurs et des assistants d’enseignement intelligents. Mais, d’autre part, on craint les risques de générer du contenu non original, inexact ou trompeur, d’effriter la créativité et de miner le développement de certaines compétences.

Serait-ce donc des outils capables de soutenir les pratiques pédagogiques et la réussite aux études? Ou serait-ce plutôt des instruments qui mettent en péril les piliers même de l’éducation? Quels seraient les moyens d’atténuer les risques associés à leur utilisation dans l’enseignement supérieur?

Ces questions étaient à la base de la journée de réflexion «Intelligence artificielle, réussite et intégrité dans l’enseignement supérieur», organisée le 31 mai par le Pôle montréalais d’enseignement supérieur en intelligence artificielle (PIA) et l’Université de Montréal.

Se tenant sur le campus principal de l’UdeM, cet événement se voulait complémentaire à l’activité organisée le 15 mai par le ministère de l’Enseignement supérieur et IVADO, un consortium de recherche, de formation et de mobilisation des connaissances en IA.

Une centaine de personnes issues des réseaux collégial et universitaire du Québec se sont donc rassemblées pour réfléchir collectivement à des façons d’encadrer l’usage des ChatGPT de ce monde dans l’enseignement supérieur.

De multiples enjeux…

La journée a été ponctuée par deux types d’activités. D’abord, les personnes participantes ont assisté à des présentations et à des panels de discussion pour mieux comprendre les outils d’intelligence artificielle générative, leurs capacités et leurs limites dans l’enseignement supérieur. Par exemple, Guillaume Lajoie, professeur au Département de mathématiques et de statistique de l’UdeM, a expliqué la science derrière ChatGPT. Bruno Poellhuber, professeur au Département de psychopédagogie et d’andragogie de l’UdeM, a développé sur la possibilité de transformer l’outil en tuteur personnel.

Ensuite, la majorité de la journée était consacrée à deux ateliers en sous-groupes. Le premier visait à explorer les enjeux liés à l’usage de l’IA générative en enseignement. Les personnes participantes ont notamment mis en lumière les enjeux de transparence, d’iniquité numérique, de protection de la vie privée, d’intégrité scolaire, d’affaiblissement de l’autonomie intellectuelle et d’augmentation de la charge de travail du corps enseignant.

… mais tout autant de solutions

Quant au second atelier, il a servi à fournir des idées de recommandations concrètes pour arriver à un futur souhaitable et un mot d’ordre a semblé s’imposer: il y a un besoin urgent d’encadrement.

Selon les personnes participantes, cet encadrement devrait se matérialiser par une sensibilisation et des formations pour accroître la littératie numérique du corps professoral et des étudiantes et étudiants, et devrait s’intéresser au fonctionnement global de l’IA et à son éthique en prenant comme références, entre autres, les dix principes de la Déclaration de Montréal.

Plusieurs ont aussi partagé le souhait d’avoir un soutien institutionnel, voire ministériel, afin de limiter l’augmentation de la charge de travail des membres du personnel enseignant, pour le moment livrés à eux-mêmes.

Finalement, la création de communautés de pratique tablant sur l’interdisciplinarité devrait être envisagée pour développer de nouveaux savoirs et partager les préoccupations.