Faudra-t-il inventer des salles de fitness mental? edit

8 février 2023

L’application « ChatGPT » développée par OpenAI fascine et fait réagir. Cette application génère automatiquement des réponses à des questions dans un dialogue de très bonne qualité. On ne prétendra pas que la machine est capable de traiter correctement tout type de question mais on doit constater d’une part que le niveau de compréhension des questions posées est excellent et d’autre part que les textes produits sont d’un très bon niveau, notamment du point de vue syntaxique. Ayant testé la réponse donnée à deux questions relativement simples et générales données à un examen de droit, j’ai pu constater que la machine était au niveau des meilleurs étudiants. Cela ne veut pas dire que ChatGPT est du niveau d’un très bon juriste mais que, confrontée à une tâche simple faisant appel à des connaissances générales, l’application est très performante.

Alan Turing avait en 1950 proposé un test pour approcher la notion d’intelligence  s’agissant d’une machine. Il consiste à déterminer si une personne engageant une conversation à l’aveugle est ou non capable de dire si son interlocuteur est un algorithme ou un être humain. Nous y sommes, ou du moins la possibilité d’une confusion entre machines et humains est désormais certaine. Au point qu’un chercheur en intelligence artificielle, Blake Lemoine, a été licencié par son employeur Google en 2022 alors qu’il affirmait que l’application LaMDA sur laquelle il travaillait était douée de sentiments tant la fonction mimétique de LaMDA est sophistiquée. Google a annoncé proposer dans les jours prochains une fonction analogue à ChatGPT basée sur cette application LaMDA.

Dans ce jeu d’imitation des facultés humaines, l’algorithme ChatGPT tire sa puissance de la digestion de ce qui est disponible sur Internet : les milliards de textes produits par les humains sont combinés pour à la fois permettre d’adapter les réponses au dialogue engagé avec l’utilisateur et restituer des informations.

On découvre donc que des tâches au contenu intellectuel substantiel peuvent être réalisées par une machine. Ainsi la société Buzzfeed a annoncé un partenariat pour utiliser ChatGPT pour la rédaction de contenu pour Facebook et Instagram. Dans les universités, on constate déjà l’utilisation de ChatGPT pour des examens par des étudiants. Plus encore, la génération de textes créatifs est à portée de main par exemple en proposant d’imaginer de nouveaux personnages pour l’univers d’Harry Potter…

Il n’est pas ici nécessaire d’entrer dans un débat pour savoir si ces activités sont caractéristiques de l’intelligence humaine et d’en donner une définition toujours plus raffinée. Mais il faut d’abord constater que les algorithmes grignotent ce qui nous semblait un territoire inviolable réservé à l’être humain, à savoir la maîtrise du langage. On peut de façon positive voir de nouveaux défis posés à la formation qui devra intégrer cette nouvelle dimension de la technologie, par exemple en développant l’esprit critique et la capacité d’analyse d’un texte. À cet égard, la maîtrise de l’écrit par la machine est bien supérieure à la moyenne des individus. C’est pourquoi il y a un enjeu éducatif immense pour développer une utilisation active de ChatGPT qui permette par exemple de s’appuyer sur un texte généré automatiquement pour ensuite l’améliorer et le corriger. On peut aussi penser que la création artistique peut s’emparer de ces outils pour générer de multiples propositions qui seront sélectionnées ou affinées par l’artiste.

Mais ces avancées posent aussi des problèmes éthiques importants que le comité national pilote d’éthique du numérique a bien identifié dans un avis de 2021. L’accélération du mouvement depuis cette date montre que la réflexion doit s’élargir et qu’elle doit conduire à des actions concrètes pour éviter de subir l’intrusion de ces outils et la marginalisation de l’humain. Les principes de transparence, de non-discrimination et d’information de l’usager d’un système conversationnel – sans que cette liste soit exhaustive – doivent trouver leur traduction dans la pratique.

Poser des limites éthiques à l’usage de ces algorithmes commence par rendre explicite leur usage dans une situation d’interaction avec un être humain mais cette notion de transparence ne peut pas se limiter à informer l’usager. Il faut qu’il puisse comprendre les conséquences de cet usage pour pouvoir faire un choix éclairé d’abord pour accepter ou refuser l’interaction avec la machine en disposant d’une réelle alternative mais aussi pour pouvoir contester le résultat obtenu.

La non-discrimination consiste à éviter que des biais soient introduits dans les données utilisées en faveur de telle ou telle catégorie de la population et dans les réponses fournies par le système. Mais le concept lui-même est loin d’être simple au-delà des cas les plus caricaturaux car il est légitime de prendre en considération des caractéristiques de certaines personnes pour adapter des réponses. La réduction des biais pose de redoutables problèmes lorsque, comme pour ChatGPT, l’apprentissage est réalisé sur un corpus immense qui lui-même est difficile à analyser de ce point de vue : est-ce que tout le corpus Wikipedia est neutre ou au contraire est-ce qu’il induit un mode de réflexion partisan ou tout silplement idéologiquement biaisé ? Il faut noter que pour éviter les premiers déboires rencontrés par les agents conversationnels tel que Tay de Microsoft qui a été conduit à produire des messages discriminatoires, ChatGPT est doté d’une fonction de supervision : comment est paramétrée cette fonction ? Qu’est-ce qui est considéré comme devant être filtré car discriminatoire ? Les choix techniques réalisés doivent pouvoir être interrogés.

Le chantier est immense et comme toujours la technique nous pousse à nous interroger sur ce que nous sommes, sur ce qui fait la valeur de nos vies. Alors que dans la vie courante, nous nous accommodons d’approximations et livrons au hasard certains choix, les machines humanoïdes nous obligent à déterminer ce qui est une bonne façon d’agir. Cela ne peut être laissé aux mains des ingénieurs chargés de concevoir ces systèmes et exige un débat de société ouvert et éclairé.

Dans L’Obsolescence de l’homme, Günther Anders, dès les années 1950, pose le problème de la puissance de la technique en des termes qui doivent aujourd’hui nous interpeller. Les outils créés par l’être humain font mieux que lui et conduisent à sa marginalisation, son obsolescence. Il tirait cette conclusion précisément de l’analyse de la menace nucléaire et de la place que le calcul non humain avait pu prendre dans l’évaluation de la situation militaire en Corée.

La mécanisation a conduit à un moindre recours à nos facultés physiques, exigeant en contrepartie de les solliciter par la pratique du sport. Peut-être devra-t-on un jour développer des salles de fitness mental pour maintenir nos facultés intellectuelles. Mais avant cela, pour déjouer la vision prophétique d’Anders, la première des étapes est d’en reconnaitre l’actualité et d’engager sérieusement une réflexion sur l’usage de l’intelligence artificielle et sur ce que nous voulons vraiment en faire.