Le spécialiste de la pédagogie numérique et des technologies cognitives estime que la communauté éducative s’est fait imposer une technologie sans avoir eu le temps d’en débattre. Selon lui, cette IA générative n’aidera pas les étudiants à penser, explorer et discuter. Bien au contraire.
Vous réjouissez-vous toujours de l’interdiction de ChatGPT à Sciences Po Paris ?
Je l’appelle « CheatGPT », c’est un outil de triche. On ne pouvait pas accepter que, faute d’encadrement, les étudiants trichent. Il faut du temps pour déterminer les règles et les intérêts de cet outil, ce sont d’ailleurs des choses qui devraient être faites avant la mise sur le marché d’un tel produit. On est encore loin du compte pour l’autoriser totalement. Nous n’avons pas encore saisi toutes les limites, les conséquences, les intérêts, les façons de le détecter dans un texte. Les enseignants ne peuvent pas s’appuyer sur un système qui n’a aucune éthique : il n’y a aucune exigence de vérité dans son algorithme, aucune transparence sur l’usage des données personnelles. Tout ça demande du temps pour élaborer un cadre légal et un scénario pédagogique.
Certains disaient, au moment de l’arrivée de ChatGPT : « Maintenant, on va former les élèves à faire des prompts. » C’est une bêtise, les prompts évoluent, très bientôt ils seront vocaux. Donc ces mêmes personnes adapteront leur pédagogie à chaque nouveauté ? Et dans deux ans, il y aura de nouveaux outils et d’autres modèles de langage. On aura appris à faire des prompts pour des IA qui ne seront plus sur le marché. Réfléchissons un peu, nous ne sommes pas soumis à cette loi de l’urgence que le marché de l’innovation technologique veut nous faire subir.
Comment les enseignants peuvent-ils se réapproprier ces outils ?
On a été mis dans cette situation d’urgence par OpenAI [l’entreprise américaine à l’origine de ChatGPT]. Ils ont lancé dans le grand public une application gratuite qui, de fait, aurait nécessité plusieurs tests et plusieurs scénarios d’utilisation dans un contexte pédagogique. C’est ce qu’on appelle une attitude disruptive.
Pour qu’une intelligence artificielle soit d’utilité publique, il faudrait obligatoirement qu’on soit capable de la contrôler, qu’on soit sûr qu’elle ne fasse pas d’erreurs. Les enseignants sont constamment en train d’innover, là ils innovent le couteau sous la gorge. Il faut trouver une façon de récupérer le contrôle et savoir s’il y a réellement un intérêt pour le monde éducatif. Le pire, c’est que ChatGPT n’est que le début d’un cycle, dans cinq ans ce sera totalement autre chose. Il y aura des modèles plus petits, plus robustes.
Il vous reste 40% de cet article à lire. La suite est réservée aux abonnés.