« Saluer l’avancée technologique, mais comprendre les limites de ce type de système »

« Saluer l’avancée technologique, mais comprendre les limites de ce type de système »


Le grand public a découvert, fasciné, la puissance de ChatGPT, cet agent conversationnel développé par OpenAI, accessible gratuitement sur Internet depuis peu.

ChatGPT est un outil d’intelligence artificielle (IA) qui permet de tester les performances des plus récents modèles de génération de langage, appelés Transformers. ChatGPT peut être utilisé pour de nombreuses tâches : résumer un texte, répondre à des questions, créer ou corriger un programme informatique, faire un devoir, ou encore simuler une interaction avec une personne décédée.

Tandis que chacun joue avec et relate avec fierté des expériences « décoiffantes », bien peu se préoccupent des aspects éthiques de ces boîtes noires. Bien évidemment, il faut saluer l’avancée technologique et la performance remarquable, mais il faut aussi comprendre les capacités et les limites de ce type de système.

Lire aussi : Article réservé à nos abonnés ChatGPT, le logiciel capable d’écrire des petits textes confondants

Qu’est-ce que ChatGPT a dans le ventre ? Des textes, qu’il a digérés grâce à des algorithmes… GPT-3 (Generative Pre-trained Transformer 3) est le modèle de langage de ChatGPT, une architecture de réseau de neurones de 175 milliards de paramètres qui utilise des représentations linguistiques préentraînées provenant d’énormes bases de données (Wikipédia, pages Web) pour produire des textes qui imitent le langage humain dans plusieurs langues. Par construction, le modèle n’a fait qu’enregistrer des informations sur les mots et parties de mots et leur contexte d’apparition.

Inonder le monde de « fake news »

ChatGPT est donc entraîné à donner, à partir d’une entrée textuelle, la séquence suivante des mots les plus probables – ce qui n’est pas réellement une réponse à une question ! Le modèle est évidemment assez souple pour ne pas toujours produire le même texte. ChatGPT utilise également un apprentissage par renforcement grâce à des formateurs humains qui ont classé plusieurs réponses alternatives. Le modèle est ainsi optimisé à partir d’interventions humaines.

ChatGPT est un système sociotechnique qui pèse sur un grand nombre de valeurs éthiques. Il peut imaginer des histoires inoffensives ou corrosives : on a vu fleurir des histoires de lapins… ou de conception d’armes.

Le danger le plus direct de ces systèmes est la possibilité d’inonder le monde de milliards de « fake news », puisque ChatGPT est capable d’inventions de texte de tout acabit si l’on joue avec. Il pourrait ensuite être nourri avec ces nouvelles données artificielles collectées sur Internet.

Lire aussi : Article réservé à nos abonnés Au-delà de l’intelligence artificielle, le chatbot ChatGPT doit ses talents d’orateur à l’humain

On arriverait à une digestion rocambolesque d’opinions, de connaissances, de bibliographies peut-être fausses par les machines, amplifiant la désinformation sur Internet. Il est encore facile de prendre ChatGPT en défaut sur des questions très pointues, sur lesquelles il est incapable de raisonner et de démêler le vrai du faux. Mais il est nécessaire d’apprendre à remettre en cause les réponses du système. Interdire ChatGPT à l’école n’est peut-être pas la meilleure solution ; apprendre à l’utiliser est sûrement une clé pour accélérer notre compréhension de ces systèmes et garder notre libre arbitre.

Il vous reste 50.33% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.