Fin 2023, OpenAI a dévoilé une déclinaison Turbo de son grand modèle de langage GPT-4 (Generative Pre-trained Transformer 4), ainsi que GPT-4 Turbo with vision qui arrivera ultérieurement et en tant que plateforme multimodale avec des prompts.
Outre un entraînement sur un corpus de données et des informations datant de jusqu’en avril 2023, une limite à 128 000 tokens, soit de l’ordre de plus de 300 pages de texte dans un seul prompt, GPT-4 Turbo doit être plus performant pour des tâches avec un suivi très précis des instructions.
OpenAI avait notamment mis en avant la génération de formats spécifiques comme XML, en plus de la prise en charge d’un nouveau mode JSON avec la technologie qui anime son agent conversationnel ChatGPT.
Une soudaine paresse de ChatGPT
Pour GPT-4 Turbo (toujours en préversion), OpenAI annonce désormais une mise à jour (gpt-4-0125-preview) qui améliore en particulier la génération de code. Un point précis souligné est la réduction des cas dits de paresse, où le modèle n’accomplit pas une tâche.
Ce problème avait été soulevé par des utilisateurs ayant constaté les refus plus fréquents de ChatGPT dans le cadre de l’exécution de tâches impliquant beaucoup de données. Toutefois, les signalements étaient en rapport avec GPT-4.
Via le compte de ChatGPT sur le réseau social X, une énigmatique réponse avait été apportée en décembre : » Nous avons entendu tous vos commentaires sur le fait que GPT-4 devient plus paresseux. Nous n’avons pas mis à jour le modèle depuis le 11 novembre, et ce n’est certainement pas intentionnel. Le comportement du modèle peut être imprévisible et nous cherchons à le corriger. «
À venir dans ChatGPT (payant)
Aujourd’hui, OpenAI reste relativement flou, d’autant que l’atténuation du problème de paresse est évoquée pour GPT-4 Turbo, mais pas GPT-4. OpenAI en profite pour glisser que plus de 70 % de ceux qui utilisent GPT-4 via son API sont passés à GPT-4 Turbo.