Le 20 février dernier, ChatGPT a pété un plomb. La très populaire interface d’intelligence artificielle (IA) générative qui a fait connaître cette technologie, a débloqué pendant plusieurs heures ce mardi. Comment ? En répondant aux questions des utilisateurs avec des phrases sans queue ni tête.
Et voici que l’éditeur, OpenAI, donne quelques explications.
« Le 20 février 2024, une optimisation de l’expérience utilisateur a introduit un bug dans la manière dont le modèle traite le langage » assure dans un retex OpenAI. Et de détailler : Les LLM génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur « langage » consiste donc en des nombres qui correspondent à des jetons (tokens).
« Les noyaux d’inférence produisaient des résultats incorrects »
« Dans ce cas, le problème se situe à l’étape où le modèle choisit ces nombres. Comme s’il s’agissait d’une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n’avaient aucun sens » précise l’éditeur.
Plus techniquement, « les noyaux d’inférence produisaient des résultats incorrects lorsqu’ils étaient utilisés dans certaines configurations de GPU » complète t-il.
Après avoir identifié la cause de cet incident, l’entreprise assure avoir déployé un correctif et confirmé que l’incident était résolu.
« Ces systèmes n’ont jamais été stables »
Gary Marcus, spécialiste de l’IA, espère que l’incident sera perçu comme un « signal d’alarme ».
« Ces systèmes n’ont jamais été stables. Personne n’a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes », a-t-il écrit mardi. Selon lui, « le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer – et donc plus faciles à mettre en œuvre – reste primordial ».