L’épopée de deux articles scientifiques

Crédit : Getty

En 5 secondes

Nous avons mis ChatGPT 4 à l'épreuve en lui demandant de résumer en deux articles informatifs et faciles à lire deux études scientifiques produites à l'UdeM. Les résultats ont été… mitigés.

Miriam Beauchamp et Laurence Perreault-Levasseur

Miriam Beauchamp et Laurence Perreault-Levasseur

Crédit : Miriam Beauchamp (Marc Antoine Charlebois) et Laurence Perreault-Levasseur (Mila Quebec)

Quelle est la capacité de ChatGPT à lire et à synthétiser la science, en particulier la science très détaillée publiée sous forme d'études évaluées par des pairs dans des revues spécialisées? Pour le savoir, nous avons mis l’agent conversationnel à l'épreuve à deux reprises. Nous lui avons soumis deux études de 2022 auxquelles des chercheurs et chercheuses de l'Université de Montréal ont participé: l'une sur les lésions cérébrales chez les enfants par la professeure de psychologie Miriam Beauchamp, l'autre en astrophysique par la professeure adjointe de physique Laurence Perreault-Levasseur.

De telles études paraissent régulièrement sur UdeMNouvelles, le site d'information de l'Université, reprises par nos rédacteurs qui digèrent le matériel, interviewent les scientifiques et valident avec eux l'article qui en résulte avant de le publier. Ce processus pourrait-il être accéléré par le recours à ChatGPT? Le logiciel d'OpenAI pourrait-il faire le travail à notre place et avec d'aussi bons résultats? La réponse, nous l'avons appris, dépend de deux facteurs: la précision des commandes qui lui sont adressées et sa capacité à comprendre notre intention.

Quelques minutes après avoir commencé notre exercice avec ChatGPT 4, la dernière version du logiciel, nous avons reçu plusieurs ébauches d’articles de presse. Mais bien qu'ils aient été grammaticalement corrects, ils n'étaient pas parfaits: ce qui a été produit nécessitait une réécriture; l'élément humain et l'expérience du rédacteur en tant que communicateur se sont avérés essentiels pour obtenir un résultat précis et lisible. Pour nous en assurer, nous avons invité les deux chercheuses et leurs collègues à nous dire ce qu'ils pensaient des versions définitives et du processus lui-même.

En même temps, nous avons demandé à un expert indépendant d'évaluer notre capacité à fournir à ChatGPT les bonnes informations pour obtenir de bons résultats. Cet expert – le journaliste montréalais Yann Fortier – donne des formations sur la meilleure façon d'utiliser ChatGPT comme outil de rédaction et il nous a prodigué de judicieux conseils sur la manière de mieux communiquer nos directives à ChatGPT à l'avenir – au risque, bien sûr, de voir un jour le logiciel se substituer entièrement aux rédacteurs que nous sommes.

***

Voici donc les études. Tout d'abord, celle en astrophysique.

«Vous travaillez en relations avec les médias pour une grande université», avons-nous commencé, en demandant à ChatGPT de s'imaginer à notre place.

«Super! a-t-il répondu joyeusement. Travailler en relations avec les médias pour une grande université implique une gamme de responsabilités et de compétences.» Et il en a énuméré 10, de l'élaboration d'une stratégie de communication à «être informé».

«Vous devez rédiger un article de vulgarisation scientifique d’une longueur de 750 mots à partir d’une étude scientifique complexe», avons-nous poursuivi.

C'est «une tâche difficile, mais gratifiante», a répondu ChatGPT en dressant une autre liste de 10 points allant de la nécessité de «comprendre l'étude» et de «cibler les éléments clés» à la conclusion du texte par «un message à retenir».

Jusqu'ici, tout va bien.

Ensuite, nous avons entré l'URL de l'étude d'astrophysique. (Contrairement aux versions antérieures gratuites, ChatGPT 4, qui coûte environ 25 $ par mois, accepte les URL, un raccourci utile pour entrer les données manuellement.)

La réponse a pris quelques secondes.

«L'étude scientifique intitulée Posterior samples of source galaxies in strong gravitational lenses with score-based priors vise à améliorer la précision de l'inférence d'informations à partir d'images de galaxies déformées par l'attraction gravitationnelle d'autres galaxies. Ce processus, connu sous le nom de lentille gravitationnelle forte, peut déformer de manière significative les images de galaxies lointaines, ce qui rend difficile la compréhension précise de leurs propriétés.»

Vient ensuite une liste, en cinq points seulement, détaillant les principaux aspects de l'étude et concluant qu'elle «représente une avancée significative dans le domaine de l'astrophysique».

Nous avons ensuite demandé à ChatGPT d'«affiner le texte en utilisant ce matériel source» et nous lui avons donné une nouvelle URL avec des informations supplémentaires provenant de l'étude. ChatGPT a alors récrit ses cinq premiers points et a terminé par une conclusion plus poussée: «Cette étude représente une étape importante dans l'inférence de données à haute dimension, améliorant notre compréhension de l'Univers grâce à des techniques avancées de reconstruction d'images en astrophysique.»

Bien, maintenant, il s’agit de «récrire le texte en utilisant une structure pyramidale inversée de type journal», avons-nous demandé. Ce à quoi ChatGPT a répondu en commençant par une formulation journalistique classique – «Dans une étude d’astrophysique révolutionnaire…» – et a poursuivi avec deux longs paragraphes. Nous lui avons demandé de continuer, ce qu'il a fait en rédigeant un autre long paragraphe, nous avons donc répété la commande et il s’est exécuté.

«Simplifiez pour un public de cinquième secondaire», avons-nous ensuite demandé, essayant de simplifier un peu les choses.

«Dans une étude récente, a répondu ChatGPT, des scientifiques ont développé une nouvelle manière de regarder des images de galaxies lointaines qui ont été déformées par la gravité d'autres galaxies intermédiaires. Cet effet de déformation est appelé lentille gravitationnelle forte. Les scientifiques ont utilisé un type spécial de mathématiques appelé modélisation basée sur les scores pour obtenir des images plus claires de ces galaxies lointaines. C'est important, car cela nous aide à comprendre des choses comme la matière noire et comment les galaxies se forment et se transforment. Leur méthode est bien meilleure que les précédentes et nous donne des images plus claires et plus précises. Cela pourrait conduire à de nouvelles découvertes dans le domaine des sciences spatiales!»

Peut-être un peu trop simple. Que diriez-vous de «récrire depuis le début, cette fois pour un public de premier cycle universitaire?» avons-nous suggéré.

Alors il a proposé ceci: «Dans une récente étude d'astrophysique, des chercheurs ont mis au point une méthode sophistiquée pour analyser les images de galaxies déformées par l'effet gravitationnel d'autres galaxies, un phénomène connu sous le nom de “lentille gravitationnelle forte”. Cette distorsion peut modifier considérablement notre perception de ces galaxies lointaines, ce qui complique l'étude de leurs véritables propriétés.»

«Pour résoudre ce problème, les chercheurs ont utilisé une technique appelée modélisation basée sur le score, qui fait appel à des mathématiques avancées et à des équations différentielles stochastiques. Cette méthode leur permet de créer des images plus précises et plus claires des galaxies déformées (et) représente une avancée significative, offrant un moyen plus fiable d'étudier et de comprendre les détails complexes des galaxies lointaines et les forces cosmiques qui agissent sur elles.»

Trois «Continuez…» plus tard, nous avons demandé à ChatGPT d'«insérer des citations des chercheurs principaux», mais ici l’agent conversationnel a hésité. «Je n'ai pas pu trouver de citations spécifiques, a-t-il répondu. Toutefois, si vous souhaitez approfondir l'étude ou obtenir des commentaires des chercheurs, je vous recommande de les contacter directement par l'intermédiaire de leurs établissements affiliés ou de rechercher les interviews et les présentations qu'ils ont pu faire sur ce sujet.» D’accord.

Puis, nous avons remarqué que la physicienne Laurence Perreault-Levasseur et ses coauteurs n'étaient mentionnés nulle part dans les réponses données par ChatGPT et nous lui avons donc demandé de récrire l'article en y incorporant leurs noms et leurs affiliations universitaires, ce qu'il a fait. Enfin, après avoir répondu à une longue série de demandes supplémentaires – trouver un meilleur titre, un sous-titre et un paragraphe principal; utiliser moins de jargon; intégrer certains éléments comme des citations directes des chercheurs (il a refusé) –, il nous a donné ceci:

Une percée en astrophysique révèle les secrets des galaxies lointaines
Une nouvelle technique mise au point par des scientifiques de l'Université de Montréal et de Mila permet d'obtenir des images plus claires de l'espace.

Des chercheurs de l'Université de Montréal et de Mila, dont Alexandre Adam, Adam Coogan et d'autres, ont fait une percée dans le domaine des sciences spatiales. Ils ont mis au point une nouvelle façon d'examiner les images de galaxies lointaines qui sont habituellement floues et déformées par la gravité d'autres galaxies situées entre elles. Cet effet de déformation constitue depuis longtemps un défi pour les scientifiques qui tentent d'étudier ces galaxies lointaines.

L'équipe a utilisé une méthode complexe, mais efficace pour rendre ces images plus claires et plus précises. Il s'agit d'un grand pas en avant dans la compréhension de la formation et de l'évolution des galaxies. C'est comme si l'on disposait d'une caméra beaucoup plus performante pour observer l'espace, offrant aux scientifiques une vue plus détaillée et plus précise de ces galaxies lointaines.

Après plusieurs autres paragraphes du même type, il était temps de procéder à une réécriture par un être humain et c'est là que nous sommes intervenu. Voici le résultat:

***

Révéler les secrets des galaxies lointaines
Une nouvelle technique mise au point par des scientifiques de l'Université de Montréal et de Mila permet d'obtenir des images plus claires de l'espace.

Une équipe de recherche de l'Université de Montréal et de son institut d'intelligence artificielle affilié Mila a réalisé une percée dans le domaine des sciences spatiales en trouvant un moyen d'examiner des images de galaxies lointaines qui sont habituellement floues et déformées par la gravité d'autres galaxies situées entre elles.

Cet effet de déformation constitue depuis longtemps un défi pour les scientifiques qui tentent d'étudier ces galaxies lointaines. Sous la direction de Laurence Perreault-Levasseur, professeure de physique, les scientifiques ont utilisé une méthode complexe, mais efficace pour rendre ces images plus claires et plus précises.

Pour les astrophysiciens, il s'agit d'un grand pas en avant dans la compréhension de la formation et de l'évolution des galaxies. À leurs yeux, c'est comme si l'on disposait d'une caméra améliorée pour observer l'espace, ce qui leur permet d'avoir une meilleure vue de ces galaxies lointaines.

«Cette nouvelle méthode est prometteuse pour la recherche spatiale, a déclaré Laurence Perreault-Levasseur. Elle nous permettra d'étudier les galaxies lointaines avec beaucoup plus de détails qu'auparavant. Nous en apprendrons davantage sur l'histoire de l'Univers, nous verrons comment les galaxies étaient il y a des milliards d'années et comment elles ont évolué au fil du temps.»

Passons maintenant à la deuxième étude, celle sur les traumatismes cérébraux chez les enfants.

«Rédigez un article de 800 mots (titre, sous-titre, sauts de paragraphe, style pyramide inversée) à partir de l'étude ci-jointe», avons-nous demandé à ChatGPT en lui fournissant un document PDF de l'étude de Miriam Beauchamp.

La réponse a semblé prometteuse, même si elle a été un peu longue:

Et ainsi de suite. Pouvez-vous repérer les améliorations?

Nous avons contacté la professeure Perreault-Levasseur et nous nous attendions à ce que son point de vue ressemble à celui d’autres chercheuses et chercheurs confrontés à des versions «vulgarisées» de leurs travaux: l'article aurait été bien plus intéressant si la science n'avait pas été simplifiée à l'extrême.

Contrairement à ChatGPT, la réponse de l'astrophysicienne n'a pas été instantanée. «Vos courriels ont atterri dans mon dossier de pourriels», s'est-elle excusée, ajoutant qu'elle avait été très occupée par ses déplacements professionnels (un séminaire à Princeton, une conférence à Waterloo, une autre à New York).

Oui, dit-elle, elle a décelé quelques problèmes dans ce que nous lui avons envoyé.

D'une manière générale, il manque une impression de «vue d'ensemble… Nous, scientifiques, consacrons généralement la majeure partie de notre temps et de nos mots à expliquer cette perspective lorsque nous nous adressons au public».

En particulier, elle a ajouté ceci: «Bien que votre texte soit assez bon sur la base de ce que ChatGPT a produit, il y a une chose qui n'est pas tout à fait exacte: nous ne sommes pas vraiment en train de “déflouter” des images, nous “reconstruisons” plutôt des images non déformées de sources d’arrière-plan.»

Elle a ensuite expliqué en détail comment cela fonctionne en utilisant l'analogie suivante: «La lentille gravitationnelle, c'est comme regarder la flamme d'une bougie à travers le pied d'un verre à vin, c'est-à-dire qu'il y a une distorsion et qu'il faut la “défaire”.»

N'est-ce pas la même chose que «déflouter»? Pas tout à fait. Il s'agit plutôt de reconstruire ce à quoi ressemble la galaxie déformée en faisant appel à l'intelligence artificielle.

Dans son étude, Laurence Perreault-Levasseur explique: «Nous avons montré comment nous pouvons utiliser l'apprentissage automatique et l'apprentissage profond pour obtenir une représentation beaucoup plus complexe et réaliste des galaxies à partir d'autres images de galaxies non déformées, et ensuite les utiliser pour “remplir” les cases manquantes dans nos reconstructions.»

«Cela nous permet non seulement de réaliser des reconstructions qui sont bien meilleures que celles faites au moyen des méthodes existantes, mais aussi, et c'est beaucoup plus important, de quantifier les incertitudes de nos reconstructions… Il s'agit d'une étape indispensable dans l'utilisation de l'apprentissage automatique pour faire des découvertes scientifiques en astrophysique.»

Puis, le clou du spectacle:

«Ce qui est intéressant dans le recours à ChatGPT, un modèle d'apprentissage profond, pour produire un article de presse, c'est que tout l'intérêt de notre utilisation de l'apprentissage profond pour l'inférence scientifique n'a pas été pris en compte!»

Un point pour l'humain.

Une étude révèle des divergences entre les parents dans l'évaluation du comportement de l'enfant après une lésion cérébrale traumatique légère
La recherche met en évidence des différences significatives entre les perceptions des mères et des pères concernant le comportement de l'enfant à la suite d'un traumatisme crânien.

Une étude récente publiée dans Child Neuropsychology a mis en évidence des différences significatives dans la manière dont les mères et les pères perçoivent et signalent les problèmes de comportement chez les enfants ayant subi des lésions cérébrales traumatiques légères (LCT) pendant la petite enfance. La recherche, menée par Lara-Kim Huynh et ses collègues de l'Université de Montréal, fournit de nouvelles informations sur les biais de signalement des parents, ce qui pourrait avoir des implications pour les évaluations et les interventions neuropsychologiques chez l'enfant.

Après cette introduction, le texte comportait huit autres longs paragraphes, intitulés Résultats clés, Stress parental et fardeau familial, Analyse approfondie, Implications cliniques, Méthodologie, Limites et recherches futures, Conclusion et, enfin, une brève rubrique À propos des auteurs.

Deuxième essai: récrire le texte cette fois pour un public étudiant de premier cycle, mais «dans un langage simple», comme nous l'avions demandé. ChatGPT a commencé de belle façon, par un titre plus simple – Une nouvelle étude montre que les mères et les pères diffèrent dans l'évaluation du comportement de l'enfant après une lésion cérébrale –, et a continué de manière tout aussi «simple».

Prise 3: cette fois-ci, avec des instructions pour inclure des détails sur la taille de l'étude et les auteurs, ChatGPT a fourni un titre et un texte encore plus idiomatiques:

Une étude révèle que les parents évaluent différemment le comportement de leurs enfants après une lésion cérébrale

Lorsque leur jeune enfant subit un traumatisme cérébral léger, les parents observent des changements de comportement, mais pas de la même manière, montre une nouvelle étude menée par des chercheurs de l'UdeM.

Une étude novatrice dirigée par Miriam Beauchamp a révélé des différences significatives dans la manière dont les mères et les pères perçoivent le comportement de leurs enfants à la suite d'un traumatisme craniocérébral léger (TCCL) au cours de la petite enfance. Cette étude, qui porte sur 85 enfants victimes d'un TCCL, offre de nouvelles perspectives sur les préjugés des parents en matière de communication.

À la quatrième et dernière tentative, nous avons récapitulé nos demandes de la manière suivante: «Rédigez un article de 800 mots (titre, sous-titre, sauts de paragraphe, style pyramide inversée) à partir de l'étude ci-jointe. En anglais simple, s'il vous plaît, évitez le jargon et essayez d'utiliser la voix active. Le public est constitué de gens du premier cycle universitaire.»

Après quelques ajustements et révisions de notre part, voici la version définitive du texte:

Les mères et les pères diffèrent sur la façon dont une lésion cérébrale modifie le comportement de leur enfant
Selon une nouvelle étude menée par une équipe de recherche de l'UdeM, lorsque leur jeune enfant subit un traumatisme cérébral léger, les parents observent des changements de comportement, mais pas de la même manière.

Les mères et les pères observent le changement de comportement de leur enfant après une lésion cérébrale traumatique légère, mais pas de la même manière. C'est la conclusion d'une nouvelle étude dirigée par Miriam Beauchamp, professeure de psychologie à l'Université de Montréal.

Publiée dans la revue Child Neuropsychology, l'étude a comparé 225 enfants âgés de 1,5 à 5 ans: 85 avaient subi un traumatisme crânien, 58 un traumatisme orthopédique et 82 avaient un développement normal. À l'aide d'un questionnaire, l’équipe de recherche a constaté que les mères signalaient plus de problèmes de comportement que les pères après un traumatisme craniocérébral.

Cette différence n'a pas été observée chez les enfants souffrant de lésions orthopédiques ou chez les enfants au développement normal. Il est intéressant de noter que le stress parental ou le fardeau familial supplémentaire que représente la présence d'un enfant blessé n'ont pas semblé influencer ces divergences d'opinions.

La petite enfance est une période cruciale pour le suivi du comportement, car les problèmes non traités peuvent conduire à des problèmes plus tard dans la vie, comme l'anxiété ou les troubles de l'humeur. L'évaluation du comportement après un traumatisme crânien précoce est un défi, en particulier pour les très jeunes enfants, qui ne peuvent pas facilement exprimer leurs sentiments ou leurs symptômes. C'est pourquoi les réponses des parents aux questionnaires constituent une source d'information essentielle.

Les recherches antérieures se concentraient souvent sur les rapports des mères et reflétaient leurs perceptions généralement négatives de l'état de leur enfant. Après un traumatisme crânien précoce, les mères sont plus susceptibles de signaler des changements de comportement chez leur enfant que les pères.

Il est essentiel de reconnaître ces divergences pour améliorer la façon dont les cliniciens évaluent le comportement des enfants et gèrent les traumatismes crâniens, a mentionné Miriam Beauchamp.

Dans son étude, elle a utilisé un questionnaire appelé Child Behavior Checklist (liste de contrôle du comportement de l'enfant) pour interroger les parents six mois après que leur enfant a été blessé. Elle a constaté que le point de vue des deux parents – et pas seulement celui de la mère – est tout aussi important pour bien comprendre les changements de comportement de l'enfant.

«Les différences entre les parents dans l'évaluation du comportement de leur enfant peuvent être instructives, a déclaré la chercheuse. Ces variations peuvent montrer comment le comportement d'un enfant change dans différents contextes. Une forte concordance entre les parents sur certains comportements laisse supposer que ceux-ci sont stables dans le temps.»

Les changements de comportement varient en fonction de l'enfant, de la gravité de la blessure et d'autres facteurs individuels. Ils peuvent inclure:

  • une irritabilité accrue ou des sautes d'humeur;
  • une moindre capacité à se concentrer, ce qui peut avoir un effet sur les résultats scolaires;
  • une fatigue inhabituelle, une baisse d'énergie ou un manque d'intérêt pour les activités que l’enfant avait l'habitude d'apprécier;
  • des difficultés à s'endormir, à rester endormi ou des changements dans les habitudes de sommeil;
  • l'anxiété ou la peur, y compris l'hésitation à participer à des activités analogues à l'évènement qui a causé la blessure;
  • de la tristesse, un retrait des interactions sociales, une perte d'intérêt pour les loisirs et les activités;
  • davantage de maux de tête ou d'estomac, sans cause physique apparente;
  • un nouveau comportement agressif ou des accès de colère;
  • des changements dans la façon dont l'enfant interagit avec ses pairs et les adultes, comme des difficultés à comprendre les signaux sociaux ou à entretenir des amitiés;
  • de moins bonnes notes à l'école ou des difficultés à faire des travaux scolaires qui ne posaient pas de problème auparavant.

Pas mal, non?

Mais qu'en ont pensé les chercheurs? Nous avons partagé le texte avec eux. Cinq jours plus tard, nous avons obtenu leurs réponses.

«Mon impression générale? Cet exercice peut être utile pour comprendre rapidement les principales conclusions d'une étude et ChatGPT semble généralement choisir le niveau de langage adapté à un public non expert, écrit Miriam Beauchamp.

«Cependant, à mon avis, il y a une grande confusion entre ce que disent les auteurs de l'étude – par exemple, leur interprétation et leurs conclusions dans la discussion de l'article – et ce qui provient de la littérature existante – comme ce qui est rapporté dans l'introduction, a-t-elle poursuivi. ChatGPT prend également la liberté d'attribuer aux auteurs des citations qui n'en sont pas, ce qui me semble problématique.»

(En fait, nous avons dû expliquer que ces citations ne venaient pas de ChatGPT, mais de nous. Erreur humaine? Pas tout à fait: elles auraient été soumises aux chercheurs pour validation avant publication et ils auraient eu la liberté de les modifier ou de les rejeter.)

Miriam Beauchamp résume l’expérience en nous faisant part de quelques avantages et inconvénients.

Avantages

  • La conclusion générale de l'étude est juste et formulée de manière simple.
  • Les détails méthodologiques (nombre de participants, groupes d'étude/population) sont rapportés et suffisamment détaillés pour que l'étude soit comprise. Il convient toutefois de noter que ces informations n'ont été incluses qu'après l'ajout d'une invitation à cet effet.
  • Les «questions de suivi» sont intéressantes. Lorsqu'on lui demande de donner des exemples du questionnaire utilisé dans notre étude, ChatGPT explique qu'il ne peut pas le faire parce que le contenu du questionnaire n'est pas compris dans l'étude, qu'il n'est pas librement accessible dans le domaine public et qu'il est protégé par des droits d'auteur, ce qui est tout à fait vrai. J'ai été surprise par cette réponse, car dans d'autres domaines ChatGPT n'indique pas ses sources et ne fait pas attention à l'origine de l'information.

Inconvénients

  • Le plus gros problème est qu'il y a une confusion entre ce qui est rapporté dans l'introduction et ce qui est rapporté dans la discussion. On a l'impression que les auteurs de l'article affirment certaines choses, alors qu'en réalité les conclusions proviennent d'études publiées précédemment par d'autres chercheurs. ChatGPT ne semble pas faire la différence entre les sources d'information: ce qui appartient à la littérature existante et ce qui est dit par les auteurs de l'article.
  • Il ne mentionne pas les limites de l'étude, ce que nous prenons soin de souligner lorsque nous parlons de nos études dans les médias. Les chercheurs expliquent généralement les nuances de leur travail. Ce point n'est pas du tout abordé.
  • Bien que le niveau de vulgarisation semble généralement adéquat, ChatGPT ne va pas plus loin dans l'explication de certains termes, ce que je ferais habituellement lorsque je m'adresse à un public non expert.

***

L'étudiante de doctorat supervisée par Miriam Beauchamp et première auteure de l'étude, Lara-Kim Huynh, a également donné son avis:

  • Les citations rapportées par ChatGPT sont problématiques, car elles ne se trouvent pas dans le texte de l'étude. Miriam Beauchamp est citée: «Les différences parentales dans l'évaluation du comportement de leur enfant peuvent être informatives», alors que l'étude attribue ces propos à un autre auteur: «De Los Reyes (2013) a suggéré que les divergences parentales peuvent être informatives, plutôt que d'être interprétées comme une erreur de mesure.»
  • ChatGPT fait du bon travail pour formuler la conclusion générale de l'article. Cependant, la structure du résumé ne respecte pas la structure des idées présentées dans le texte. En conséquence, il est difficile de saisir pourquoi les auteurs ont mené cette étude et quelles en sont les implications pour la recherche future. Au lieu de cela, ChatGPT semble rapporter des phrases choisies au hasard dans le texte. Il reformule plusieurs fois la conclusion de l'étude, entrecoupée d'informations sur la méthodologie, rendant difficile la compréhension.
  • Certaines phrases sont en fait incorrectes, comme «Les recherches antérieures se concentraient souvent sur les rapports des mères et reflétaient leurs perceptions généralement négatives de l'état de leur enfant». ChatGPT semble avoir fusionné deux phrases pour créer de nouvelles informations: «De plus, la plupart des études documentant les changements comportementaux après un TCCL pédiatrique s'appuient sur un seul informateur […]» dans l'introduction et «Ensemble, les résultats montrent que des évaluations plus élevées des problèmes comportementaux par les mères par rapport aux pères sur le TCCL ne sont pas dues à une perception généralement plus négative du fonctionnement de leur enfant […]» dans la discussion.
  • Le titre «Les mères et les pères diffèrent sur la façon dont une lésion cérébrale modifie le comportement de leur enfant» est très mal formulé et ne reflète pas le contenu de l'article.

ChatGPT et nous qui le commandons pourrions-nous faire mieux la prochaine fois? Certainement, nous a expliqué notre guide, Yann Fortier, après avoir examiné de près comment se sont déroulés nos «échanges» avec l’agent conversationnel.

«J'aime vraiment votre séquence de demandes, qui vont du macro- au micro-», a-t-il répondu.

Ensuite, il a fait quelques suggestions importantes, susceptibles de changer la donne:

«Demandez-lui quelle serait la meilleure approche pour produire un article de 750 mots, en spécifiant le contexte entre autres, pour lui faciliter la tâche. Lui dire continuellement de “continuer” est certainement efficace, cependant, je vois un risque d'optimisation.

«À mon avis, ChatGPT ne sait pas à l'avance qu'il doit “continuer”. Il a donc tendance à adopter une “volonté de conclure” et à le faire à la fin de chacune de ses réponses plutôt qu'à la toute fin du texte.

«C'est pourquoi, par exemple, je préfère une approche comme “Résumez le contenu X en 10 sections principales, numérotées et listées de 1 à 10. L'étape 1 devrait être l'introduction, l'étape 10 la conclusion. Chaque section doit s'enchaîner logiquement et continuellement”.

«Une fois les résultats affichés, demandez-lui d'écrire un texte de 75 mots pour l'étape 1. Ensuite, dites “Continuez en écrivant un texte de 75 mots pour l'étape 2”. Lorsque vous l'obtenez, dites “Idem pour l'étape 3”. Et ainsi de suite jusqu'aux étapes 4, 5 et 6.

«C'est comme s’il tirait profit d’un miniapprentissage progressif. Et je vois deux avantages à procéder ainsi: vous atteindrez votre objectif de 750 mots de manière plus directe au lieu de tourner autour du pot et ChatGPT commencera à “comprendre” chaque étape et ainsi à suivre un arc narratif plus logique, et il évitera de chercher une «phrase-choc» pour terminer chacun des segments.

«Je vous invite à faire le test pour voir si les réponses peuvent s'avérer plus précises», a conclu Yann Fortier.

Et c'est bien ce que nous pourrions faire. Comme ChatGPT lui-même, notre utilisation de celui-ci ne fait que commencer.