Depuis le 30 novembre, un agent conversationnel en ligne, ou chatbot, fascine les internautes avec ses créations littéraires, sa maîtrise des langues humaines ou informatiques, ses réponses surprenantes ou décevantes, parfois ses grossières erreurs. On ne compte plus les chansons, les jeux de questions-réponses, les dialogues, voire les interviews de ChatGPT, le programme de l’entreprise américaine OpenAI, spécialisée en intelligence artificielle (IA). « Le chat et le robot jouaient au poker, mais le chat a triché en utilisant ses griffes pour marquer les cartes », propose par exemple l’outil quand on lui demande une phrase drôle.
« Comme utilisatrice, je peux être impressionnée, mais comme scientifique, il faut voir, car nous n’avons pas encore les détails de ce chatbot. Les résultats demandent à être évalués par des métriques et des tests que la communauté scientifique a élaborés », constate Chloé Clavel, professeure à Télécom Paris, qui prévient que « trop de confiance sur la forme peut abaisser la vigilance sur la véracité de ce qui est produit ».
« On observe quand même un basculement. ChatGPT, bien que généraliste, a l’air d’être meilleur sur des tâches spécifiques que des systèmes programmés dans ce but », estime Benoît Sagot, de l’Institut national de recherche en sciences et technologies du numérique, pour qui cependant « le plus intéressant est de découvrir ce qu’il peut faire d’imprévu ».
Combinaison idéale
Quels sont les secrets de cette IA ? « A priori, il n’y a pas eu de nouvelles méthodes inventées pour ChatGPT. Mais cela mélange des approches antérieures avec énormément de données », estime Chloé Clavel, pour qui une chose est sûre : « Le rôle majeur de l’humain dans la mise au point. »
Soulever le capot de ChatGPT revient donc à dénicher la part d’humain dans cette fusée à plusieurs étages. Premier étage, le modèle de langue ou l’art de pouvoir faire écrire à une machine une langue correctement. Cet étage remonte, pour OpenAI, à 2020, date de sortie de GPT-3, le plus gros programme jamais construit à l’époque avec quelque 175 milliards de paramètres. C’est comme si, pour ajuster la mire d’un fusil déréglé, le spécialiste devait trouver la combinaison idéale en activant 175 milliards de boutons. Ici, l’objectif était de trouver le meilleur mot pour compléter une phrase. Pour s’y entraîner, le logiciel a ingurgité plus de 570 gigaoctets de données puisées sur le Web. Ces paramètres sont organisés selon une architecture imaginée par Google en 2017, appelée « Transformer », pour mieux tenir compte du contexte et donc améliorer la traduction.
Il vous reste 66.33% de cet article à lire. La suite est réservée aux abonnés.