Pas de génération d’images, de vidéo ou de son, pas de fanfreluches ni d’effets tape à l’œil, mais un « collègue virtuel » pour abattre le gros du boulot : c’est le rôle que le bot Claude s’est donné pour faire la différence avec ChatGPT. Une volonté encore renforcée par les nouveaux modèles 4 tout juste disponibles… qui lui permettent de mieux jouer à Pokémon. On ne peut pas être tout le temps sérieux.
Anthropic a lancé la nouvelle génération des modèles IA de son bot Claude. Claude Opus 4 et Claude Sonnet 4 se présentent comme des champions du code, du « raisonnement avancé » et de l’IA agentique. On est loin des flonflons habituels d’OpenAI qui communique volontiers sur son outil de génération d’images à la viralité assumée. ChatGPT a aussi des capacités plus sérieuses, mais Claude s’adresse davantage aux professionnels.
Une IA sous haute surveillance
Et la nouvelle famille de modèles veut le prouver. Claude Opus 4 est le modèle le plus puissant d’Anthropic, il est censé être performant pour les tâches de longue durée qui requiert des milliers d’étapes. Il a la capacité de fonctionner pendant plusieurs heures, ce qui lui permet de dépasser les autres modèles Sonnet.
S’il n’est pas aussi performant que son grand frère Opus, Claude Sonnet 4 offre des améliorations « considérables » sur le précédent modèle 3.7. Il se destine davantage aux tâches du quotidien.
Anthropic a également beaucoup réduit les comportements d’évitement (utilisation de raccourcis ou de failles) qui sont relativement fréquents avec Sonnet 3.7 quand il ne sait pas trop comment accomplir une tâche. Les deux modèles sont 65 % moins susceptibles d’adopter ce comportement sur des tâches d’agent particulièrement vulnérables.
Lorsqu’un développeur donne à Claude Opus 4 l’accès aux fichiers stockés sur son ordinateur, le modèle maintient désormais des « fichiers mémoire » pour stocker les informations clé. Cela lui assure une plus grande cohérence et des performances améliorées sur les tâches agentiques. La startup donne l’exemple d’un guide de navigation pour le jeu Pokémon : l’agent enregistre les infos importantes pour améliorer sa partie !
Ces modèles gagnent donc en jugeote, et les développeurs trouveront certainement des utilisations pertinentes. Mais ce n’est pas sans poser des questions de sécurité également. En 2023, Anthropic s’engageait à ne pas distribuer de modèles avant d’avoir développé des mesures de sécurité pour en restreindre les usages les plus malveillants.
Claude Opus 4 est lancé avec des mesures de sécurité renforcées baptisées « ASL-3 » (AI Safety Level 3), les plus strictes jamais appliquées par Anthropic. Sans ce garde-fou, l’IA est en mesure de faciliter l’accès, la production ou le déploiement d’armes chimiques, biologiques ou nucléaires pour des personnes ayant des connaissances scientifiques de base ! Ces mesures comprennent une cybersécurité renforcée, des protections contre le contournement des restrictions, et des systèmes supplémentaires pour détecter et refuser certains comportements dangereux. Ouf.
Ces nouveaux modèles sont disponibles dès aujourd’hui pour les abonnés payants. Sonnet 4 est aussi proposé aux utilisateurs gratuits.
Lire Dark LLMs : ces IA débridées répondent à toutes les demandes, même les plus dangereuses
Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source :
Anthropic