Comment l’éducation doit-elle gérer l’IA et ChatGPT ? Citer ses sources est une catastrophe. Il invente des articles’

Les universités et les écoles se bousculent pour comprendre comment intégrer ChatGPT dans l’éducation. Les cas d’abus se sont jusqu’à présent révélés difficiles à prouver. « C’est une illusion de dire que nous pouvons encore ignorer cela. »

Anne Boersma et Paul Noteteirs

Une enquête a été ouverte à l’Université d’Anvers sur un étudiant soupçonné d’avoir commis une fraude. Le porte-parole Peter De Meyer dit qu’il y a un soupçon que cet étudiant a utilisé l’intelligence artificielle (IA). Il ne peut pas donner de détails sur l’enquête en cours. Mais l’abus est difficile à prouver. « Il n’existe pas encore de logiciel concluant, les méthodes de détection ne sont pas encore étanches à 100 % », déclare De Meyer.

Être capable de détecter ChatGPT est un sujet brûlant dans l’éducation. En décembre, le développeur OpenAI a déclaré qu’il filigranerait la sortie de ChatGPT pour éviter le plagiat. La société a maintenant lancé un outil capable de détecter la fraude.

Le système n’est en aucun cas sans faille. Lors d’un test effectué par les fabricants, le programme n’a reconnu que 26 % des textes en anglais écrits par ChatGPT. Neuf pour cent des pièces avec un auteur humain ont été identifiées à tort comme le produit de l’intelligence artificielle.

Les fabricants recommandent donc de ne pas s’y fier entièrement et de n’analyser que des textes anglais avec lui. À l’avenir, OpenAI espère proposer une version plus efficace et maîtrisant davantage de langues. D’autres entreprises du monde entier travaillent également dur pour développer des détecteurs.

Ajouter une faute d’orthographe

Mais aucun système de détection n’est étanche. Prouver un abus est donc pratiquement impossible pour le moment, déclare le professeur de linguistique computationnelle Walter Daelemans (UAntwerp). Les scanners de plagiat classiques ne fonctionnent pas, car les textes qui sortent de ChatGPT sont construits à partir de morceaux d’innombrables textes. Vous ne pouvez donc pas montrer d’où vient exactement le texte.

ChatGPT est un modèle de langage, explique le professeur Daelemans. « Vous pouvez demander de différentes manières d’écrire un texte sur un certain sujet et vous recevrez alors différents textes dans différents styles. » Les méthodes de détection qui existent maintenant peuvent facilement être contournées par un étudiant en demandant explicitement à ChatGPT d’écrire un texte en tant qu’humain et non en tant que modèle de langage. Ou encore plus simple : en ajustant un peu le texte, en ajoutant du texte ou une erreur de langue, par exemple.

S’intégrer dans l’enseignement

Il vaut mieux adopter la technologie, semble donc être le point de départ pour les institutions gouvernementales flamandes. L’Université d’Anvers élabore actuellement une politique pour faire face à l’IA. Le règlement actuel des examens est en cours d’affinement. Par la suite, l’université examinera toutes les formes d’évaluation. Cela peut entraîner une charge de travail supplémentaire pour le personnel enseignant, et l’évolution des formes de test ne peut plus être mise en œuvre cette année universitaire.

Avec les examens oraux et écrits, le risque d’utiliser ChatGPT n’est pas si grand, dit Peter De Meyer. Mais il existe aussi des cours où l’on est évalué sur une épreuve que l’on prépare à la maison. C’est plus risqué. Une option consiste à ajouter une partie orale, afin qu’un étudiant défende le travail.

Une partie de la nouvelle politique est principalement l’intégration de l’IA dans l’éducation. L’université n’envisage donc certainement pas de revenir au stylo et au papier, tout comme les universités australiennes. De Meyer est catégorique : « L’IA est là pour ne jamais partir. Il devient plus grand et plus facile d’accès. C’est une illusion de dire que nous pouvons ignorer cela.

Le point de départ est que les étudiants peuvent utiliser l’IA dans des conditions contrôlées afin d’arriver à un produit final meilleur et plus créatif. Walter Daelemans est déjà fan. ChatGPT est un outil puissant à utiliser dans l’éducation, dit-il. Comment? En donnant la tâche de rendre un texte auto-écrit plus convaincant ou humoristique, par exemple.

Une éducation à l’épreuve du temps

L’Université d’Anvers n’est pas la seule à travailler sur le thème. GO!, l’éducation de la Communauté flamande, est accompagné d’un manuel contenant des conseils concrets sur la façon dont les écoles peuvent gérer l’IA et des fonctions telles que ChatGPT. Eux aussi partent du fait que ces types de nouvelles applications ne disparaîtront pas et ne feront que s’améliorer.

UGent ne peut pas confirmer pour le moment que certains fichiers pourraient être liés à ChatGPT. L’université étudie l’impact de l’IA sur les formes d’évaluation telles que les travaux, les thèses et les examens. Aussi souligne que l’université a un œil sur les possibilités de l’IA et qu’elle travaille sur des conseils pédagogiques concrets pour les enseignants de l’UGent. Ceci en consultation avec des spécialistes de l’IA.

Liste des sources

Les développements des logiciels de détection sont suivis de près dans le monde de l’éducation, mais aucun manuel ne décrit actuellement comment détecter les abus.

La liste des ressources semble actuellement être la seule vulnérabilité du système de ChatGPT. « Le crédit est un désastre absolu dans le modèle. Ce n’est pas possible. Il invente des articles qui n’existent pas », explique Walter Daelemans. La façon dont le modèle de langage fonctionne ne permet pas de citer correctement les sources, précisément parce qu’il reconstruit à partir de divers éléments d’Internet.

Daelemans espère surtout que des environnements éducatifs seront créés dans lesquels les étudiants apprendront à s’entraîner avec des modèles tels que ChatGPT. « Et je veux apprendre à écrire mieux qu’un de ces stupides modèles de langage. »



ttn-fr-31