Développé par OpenAI et accessible par l’intermédiaire de la version payante de l’agent conversationnel d’IA ChatGPT (mais également exploité par Bing Chat de Microsoft), le grand modèle de langage multimodal GPT-4 (Generative Pre-trained Transformer 4) est annoncé dans une mouture GPT-4 Turbo.
Pour le moment disponible via une API en préversion, GPT-4 Turbo a été entraîné sur un vaste corpus de données et des informations datant de jusqu’en avril 2023. C’est un changement notable par rapport à GPT-4, dont la base de connaissances s’arrête officiellement à septembre 2021, tout comme GPT 3.5 et GPT 3.5 Turbo qui n’ont pas de capacité multimodale (uniquement du texte et pas des images en entrées).
GPT-4 Turbo avec ou sans vision
En fonction de la déclinaison, GPT-4 est limité à une fenêtre contextuelle de 8 192 ou 32 768 tokens. Pour GPT-4 Turbo, c’est une limite qui est portée à 128 000 tokens ou l’équivalent de près de 100 000 mots. OpenAI fait une comparaison avec l’affichage de plus de 300 pages de texte dans un seul prompt.
Il existe toutefois deux versions de GPT-4 Turbo. La distinction se fait en matière de compréhension des images avec GPT-4 Turbo with vision qui est ainsi la plateforme multimodale. La limite en sortie demeure à 4 096 tokens et l’intégration de DALL-E 3 pour la génération d’images est de la partie.
OpenAI souligne que GPT-4 Turbo est meilleur que ses modèles précédents pour des tâches nécessitant de suivre attentivement des instructions, comme la génération de formats spécifiques (XML, par exemple), et prend en charge un nouveau mode JSON.
Plus performant et moins cher pour les développeurs
Avec des performances optimisées et par rapport à GPT-4, GPT-4 Turbo est proposé aux développeurs à un prix trois fois moins élevé pour les jetons d’entrée (0,01 $ pour 1 000 tokens) et deux fois moins élevé pour les jetons de sortie (0,03 $ pour 1 000 tokens).
En plus de GPT-4 Turbo, GPT-3.5 Turbo profite également d’améliorations. Une version peut prendre en charge par défaut une fenêtre contextuelle de 16 385 tokens, un meilleur suivi des instructions, le mode JSON, l’appel de fonctions en parallèle.