OpenAI propose GPT-4o mini pour réduire le coût des applications …

OpenAI propose GPT-4o mini pour réduire le coût des applications ...



OpenAI a dévoilé la semaine dernière une version allégée de son LLM GPT-4o. GPT-4o mini, selon l’entreprise, propose une meilleure précision que GPT-4 et coûte nettement moins cher que GPT-3.5 « Turbo » lorsqu’il est utilisé par les développeurs. Ce qui, selon l’entreprise, peut stimuler la construction d’applications qui utilisent le modèle d’IA de manière intensive.

L’entreprise présente le nouveau modèle d’IA comme « le petit modèle le plus rentable du marché ». Mais comme pour la plupart des versions de LLM d’OpenAI, aucun détail technique n’est disponible sur GPT-4o mini, tel que le nombre de paramètres. Nul ne sait donc ce que signifie « mini » dans ce cas.

(Un « modèle d’IA » est la partie d’un programme d’IA qui contient de nombreux paramètres de réseaux neuronaux et de fonctions d’activation qui sont les éléments clés du fonctionnement d’un programme d’IA).

Utile et pratique pour les API

Le prix de GPT-4o mini « est de 15 cents par million de jetons d’entrée et de 60 cents par million de jetons de sortie, soit un ordre de grandeur plus abordable que les modèles frontières précédents et plus de 60 % moins cher que GPT-3.5 Turbo », a déclaré OpenAI dans un billet de blog envoyé par courriel à ZDNET.

Selon l’entreprise, cette réduction des coûts facilitera le développement d’applications affectées par le volume d’activité.

Par exemple, les applications qui doivent effectuer de multiples appels d’API (interface de programmation d’applications), ou qui utilisent des « fenêtres contextuelles » plus grandes pour récupérer des documents (par exemple, pour récupérer une base de code entière lors du développement d’une application), ou qui doivent interagir fréquemment avec l’utilisateur final, comme un robot d’assistance, bénéficieront de la réduction du coût par transaction, a déclaré OpenAI.

Le modèle n’offre pour l’instant qu’un support texte et image

Le modèle est plus performant que le modèle GPT-4 standard lorsqu’il est utilisé comme chatbot, d’après les tests effectués par le leaderboard de Lmsys. Il surpasse également le modèle GPT-3.5 Turbo et d’autres petits modèles sur des benchmarks académiques à la fois pour l’intelligence textuelle et le raisonnement multimodal, et prend en charge autant de langues que le modèle GPT-4o standard.

Le nouveau modèle est disponible pour les développeurs via l’API Assistants, l’API Chat Completions et l’API Batch, et peut être utilisé à la place de GPT-3.5 Turbo dans les comptes gratuits, plus et team de ChatGPT.

Le modèle n’offre pour l’instant qu’un support texte et image, l’audio et la vidéo devant être ajoutés à une date non précisée. La fenêtre de contexte GPT-4o mini est de 128 000 tokens, et ses données d’entraînement sont actuelles jusqu’en octobre 2023.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.