L’IA générative développée par Anthropic affiche un tarif 40 % inférieur à celle de ChatGPT.
Mais derrière cette apparente économie se cache une réalité plus complexe.
En générant davantage de jetons pour un même texte, le modèle Claude 3.5 Sonnet pourrait, en pratique, se révéler plus onéreux à exploiter que GPT-4o.
Des phrases simples déjà surfragmentées
Selon VentureBeat, Claude 3.5 Sonnet génère en moyenne entre 20 % et 30 % de jetons supplémentaires par rapport à GPT-4o pour des requêtes identiques. Résultat, malgré un coût unitaire par jeton plus bas, la facture finale grimpe en raison du volume élevé de jetons générés.
Pour rappel, un jeton correspond à une unité de texte – un mot ou une partie de mot – que l’intelligence artificielle peut analyser. Plus le système découpe le texte en segments, plus le nombre de jetons augmente, ce qui impacte directement les coûts d’utilisation.
Autrement dit, l’analyse lexicale conçue par Anthropic se révèle moins efficiente que celle développée par OpenAI. Elle fragmente davantage les phrases, augmentant mécaniquement le coût total des interactions. Et ce malgré un prix affiché plus attractif.
Par exemple, une simple phrase comme « Bonjour à tous » est découpée en seulement deux jetons par ChatGPT. Contre quatre pour Claude AI. Une même phrase peut donc être fragmentée de manière très différente.
Des écarts qui s’accentuent avec la complexité
L’écart est d’autant plus significatif lorsque le contenu se complexifie. Sur des textes en anglais, Claude 3.5 Sonnet génère environ 16 % de jetons supplémentaires par rapport à ChatGPT. Cet écart grimpe à 21 % pour les formules mathématiques et atteint jusqu’à 30 % dans le cas de code Python.
Ce surplus de jetons n’a pas seulement un impact financier. Il limite aussi la quantité d’informations que le modèle peut traiter simultanément. Claude AI peut théoriquement gérer jusqu’à 200 000 jetons. Contre 128 000 pour GPT. Mais en raison de sa tendance à surdiviser le texte, cette capacité pourrait se révéler moins avantageuse qu’elle n’y paraît.
OpenAI utilise un outil d’analyse lexicale open source basé sur l’algorithme BPE (Byte Pair Encoding). Son fonctionnement est entièrement documenté et accessible au public. À l’inverse, Anthropic a fait le choix d’un système propriétaire. Sa structure et son mode de fonctionnement restent confidentiels.
Cette opacité soulève des inquiétudes. Sans une compréhension précise des mécanismes mis en place, il devient difficile pour les entreprises de prévoir les coûts d’exploitation des modèles d’intelligence artificielle.