Faut-il avoir peur de ChatGPT dans l’enseignement supérieur? edit

27 janvier 2023

Le futurologue Thomas Fray prédisait en 2016 que la plus grande entreprise internet mondiale en 2030 ne serait ni Facebook ni Google, mais une « EdTech », une entreprise du secteur de l’éducation, dont nous n’avions pas encore entendu parler. La prophétie semble se réaliser au moment même du boom de l’intelligence artificielle (IA). En effet, les réseaux de neurones produisent des effets de plus en plus puissants et se démocratisent de façon accélérée. Dans cette boucle jugée vertueuse par ses promoteurs, des investissements de plus en plus importants sont engendrés et les rivalités internationales (essentiellement sino-américaines) s’affirment pour savoir qui dispose du leadership en la matière.

De fait, contrairement aux anticipations de la décennie passée, le « tsunami numérique » (Emmanuel Davidenkoff) dans l’éducation n’est pas venu des MOOC (Massive Online Open Course), sorte de ripolinage du traditionnel cours magistral, mais des agents conversationnels, comme ChatGPT. L’enjeu ne relève plus de la massification de l’enseignement à destination d’un public de plus en plus volatile et nombreux provenant des quatre coins du monde. La médiation pédagogique recherchée est d’une autre nature. Il s’agit plutôt d’un outil individualisant et personnalisant la formation, à travers des robots à même de s’adapter à ce qui est demandé à l’apprenant. On notera au passage que ces « EdTech » sont loin d’être des acteurs négligeables ou limités aux seules demandes de la pédagogie formelle. Ainsi, en mars 2022, la FIFA a conclu son premier partenariat avec une EdTech, l’indienne Byju, une application de tutorat éducatif évaluée à 22 milliards de dollars.

Comment ChatGPT est devenu un acteur de l’éducation

La crise Covid a rappelé l’importance du présentiel pour la santé mentale des étudiants, et l’importance de l’apprentissage par les pairs. C’est précisément dans l’individualisation du rapport au savoir qu’un agent conversationnel comme ChatGPT, capable de générer des textes de bonne qualité sur n’importe quel sujet, peut jouer un rôle de premier plan en matière éducative, parmi toutes les technologies pédagogiques ayant émergé ces dernières années.

Si l’utilisation de l’IA en matière éducative n’est pas totalement nouvelle, c’est son accessibilité qui fait de ChatGPT un nouvel acteur éducatif susceptible d’impacter un public plus large et diversifié. Le constat s’impose : l’usage régulier de cet outil « intelligent » de rédaction peut avoir un impact significatif sur la manière de penser et de traiter l’information. En outre, il permet un accès plus facile à une grande quantité d’informations, ainsi qu’une communication plus rapide et plus efficace. Mais au-delà de la technologie en elle-même, ce sont bien ses usages qui en détermineront la portée culturelle et sociale.

Lorsque l’on demande à ChatGPT lui-même quel sera son impact sur l’enseignement supérieur, sa réponse est triple :

« Assistance à la rédaction : ChatGPT peut aider les étudiants à rédiger des devoirs, des mémoires, des thèses, etc. en leur proposant des phrases et des idées pertinents pour leur sujet.

Tutorat en ligne : ChatGPT peut également être utilisé pour fournir un tutorat en ligne aux étudiants, en répondant à leurs questions sur des sujets spécifiques.

Création de contenu pédagogique : ChatGPT peut également être utilisé pour générer automatiquement des questions d’examen, des sujets de recherche, des exercices, etc. »

En répondant de la sorte, ChatGPT se positionne à la fois du côté de l’étudiant et de l’enseignant-chercheur (en attente de rédaction de contenu), à l’étudiant (ayant un accès potentiellement illimité à un tuteur pouvant lui permettre d’aller à son rythme) et de l’enseignant (dans la création de contenus à diffuser aux étudiants). En outre, l’agent conversationnel génère des textes en réponse à des demandes de lettres de motivation ou d’enrichissement de contenus éditoriaux. Si les textes produits sont plus ou moins convaincants, la génération automatique de tels contenus sans coût d’entrée pour l’utilisateur d’une part, et d’autre part, la large appropriation technologique en cours, exigent de s’interroger sur les conséquences structurelles de ce phénomène. Outre la remise en cause de la notion même de savoir et de création que suppose l’usage d’un algorithme remplaçant l’entreprise humaine au cœur de l’héritage des Lumières, plusieurs dangers doivent être soulignés. La transparence quant aux données générant les contenus et la traçabilité de ces textes qui ne sont pas écrits par des humains constituent un premier aspect. Ensuite, les risques de prolifération de fausses informations ou deepfakes sont évidemment renforcés avec de tels usages. Mais plus fondamentalement, le grand mythe de Condorcet visant la quête du perfectionnement de l’homme par la recherche et le questionnement du monde qui l’entoure, déjà mis à mal par l’affirmation d’idéologies en rupture avec l’idéal humaniste[1], verra avec ces technologies génératives son point d’aboutissement, notamment la généralisation de stéréotypes normatifs.

Des instincts paléolithiques, des institutions médiévales et des technologies divines

Le biologiste Edward Osborne Wilson faisait remarquer en 2009 que « le vrai problème de l’humanité est le suivant : nous avons des émotions paléolithiques, des institutions médiévales, et une technologie divine »[2].

Nos émotions, ainsi que nos capacités cognitives, peuvent potentiellement être affectées par l’utilisation de ChatGPT : la dépendance envers les technologies numériques fait l’objet d’une littérature abondante, la perte de capacité de concentration et de mémorisation ou les troubles de l’attention en raison d’une utilisation massive des outils numériques également. Ces symptômes seront d’autant plus affirmés que notre temps de liberté d’attention[3] a considérablement augmenté avec la montée en puissance de la société numérique et la transformation des rythmes professionnels. La véritable question sera donc bien d’interroger l’utilisation de ces outils générateurs de contenus qui touchent autant le texte que l’image, tels que Midjourney.

De même, la logique symbolique des institutions éducatives, depuis l’école jusqu’à l’enseignement supérieur repose sur l’image du cours magistral. L’organisation spatiale, de la salle de classe jusqu’aux grands amphithéâtres de Bologne, d’Oxford et de la Sorbonne, traduit d’une certaine manière cette réalité médiévale. ChatGPT balaie radicalement cet héritage. Il apparaît ainsi comme une technologie divine qui s’amusent de nos émotions paléolithiques et vient bousculer nos institutions « médiévales » : le modèle d’apprentissage doit être fondamentalement revu. En effet, que penser du statut d’un texte généré par ChatGPT, qui n’est pas du plagiat à proprement parler, mais qui ne peut être considéré comme une production originale de la réflexion d’un étudiant ? On le voit, l’utilisation massive de cette technologie engendre un problème de positionnement pour l’enseignement supérieur, d’autant que le texte écrit par le robot est difficilement décelable. La même vigilance que celle qui aurait sans doute dû prévaloir au moment de l’apparition de moteurs de recherche puissants devrait être présente. Au-delà des modalités d’évaluation qui verront probablement le déclin des productions écrites, et l’essor d’autres productions fondées sur l’expérience, l’interaction, la maîtrise de l’exercice oral, il faut craindre que la nature de la révolution occasionnée par les IA génératrices soit pleinement anthropologique.

Le tsunami est en marche, et rien n’arrêtera la progression de l’utilisation de ChatGPT pour les travaux à la maison. La question n’est donc pas de savoir si cela entrera dans nos écoles, mais comment, afin de savoir la place qu’il faudra laisser à l’interaction humaine et aux compétences de l’enseignant qualifié, qui agira selon le modèle du « centaure » (l’enseignement se faisant en cumulant la puissance de la machine et le discernement humain), d’autant que ses réponses ne seront pas vérifiées ni connectées à des interrogations normatives. La tendance historique tend néanmoins vers la démocratisation de l’intelligence artificielle.

Une des questions fondamentales posées est bien celle de la confiance que la population accordera à des solutions technologiques, dont on peut pressentir que les obstacles seront doubles : d’une part, la question de l’origine des réponses proposées, et des réticences pouvant exister à dépendre d’un pays extérieur (nos données cognitives pouvant faire l’objet d’un souhait de protection de la part des Européens) ; d’autre part, celle du rapport à un projet d’entreprise venant concurrencer nos systèmes éducatifs enracinés ; l’OpenAI était un projet à but non-lucratif en 2015, mais la dimension altruiste est aujourd’hui beaucoup moins évidente. La question est donc moins celle de la peur que de la nécessité d’adaptation à une nouvelle donne technologique, dont tous les usages n’ont pas encore été ressentis.

[1] Virginie Tournay, L’Intelligence artificielle. Les enjeux politiques de l’amélioration des capacités humaines, Ellipses, 2020.

[2] Vincent Berthet, L’Erreur est humaine. Aux frontières de la rationalité, Paris, CNRS éditions, 2018, p.157.

[3] Gérald Bronner, L’Apocalypse cognitive, Paris, PUF, 2021.