OpenAI lance ses nouveaux modèles d’IA o3 et o4-mini, ainsi qu’un …

OpenAI lance ses nouveaux modèles d'IA o3 et o4-mini, ainsi qu'un ...



OpenAI vient d’officialiser o3 et o4-mini, les derniers-nés de sa gamme de modèles de raisonnement. o3, présenté en avant-première en décembre, est le modèle de raisonnement le plus avancé d’OpenAI à ce jour, tandis que o4-mini est un modèle plus petit, moins cher et plus rapide.

« Réfléchir avant de parler »

o3 et o4-mini prennent plus de temps pour traiter les requêtes, mais fournissent des réponses de meilleure qualité. Par conséquent, comme les modèles plus anciens, ils affichent des performances élevées, voire améliorées, dans les tâches de codage, de mathématiques et de sciences. Mais ils intègrent une nouveauté importante : la compréhension visuelle.

En effet, o3 et o4-mini sont les premiers modèles d’OpenAI à « penser avec des images ». L’entreprise explique que les modèles peuvent utiliser les informations visuelles dans leur processus de raisonnement. Ainsi, les utilisateurs peuvent soumettre des images de mauvaise qualité ou floues, et le modèle pourra toujours les comprendre.

Une autre grande nouveauté est que o3 et o4-mini peuvent utiliser de manière indépendante ou agentive tous les outils ChatGPT, notamment la navigation web, Python, la compréhension et la génération d’images, pour mieux résoudre des problèmes complexes en plusieurs étapes. OpenAI affirme que cette capacité permet aux nouveaux modèles de « faire un pas vers un ChatGPT plus agentif, capable d’exécuter des tâches de manière autonome pour votre compte ».

De la même manière qu’une personne utilise une calculatrice pour obtenir de meilleurs résultats, les nouveaux modèles peuvent désormais exploiter tous les outils avancés d’OpenAI pour être plus performants.

Lors d’une démonstration, o3 a été invité à analyser une illustration scientifique et à tirer une conclusion qui n’y figurait pas. Pour obtenir la réponse, le modèle a parcouru Internet et zoomer sur les différents éléments de l’image afin de générer une réponse concluante, démontrant ainsi sa capacité à utiliser plusieurs outils de manière autonome et à analyser les images en détail.

Selon OpenAI, les modèles o3 et o4-mini sont globalement meilleurs que les générations précédentes, avec un meilleur suivi des instructions et des réponses vérifiables plus utiles. Sur tous les bancs d’essai, les nouveaux modèles ont surpassé leurs prédécesseurs, même sans utiliser les outils supplémentaires auxquels ils ont accès.

Comment accéder aux nouveaux modèles

OpenAI o3 et o4-mini sont disponibles dès aujourd’hui pour les abonnés, y compris les utilisateurs de ChatGPT Plus, Pro et Team. Les modèles apparaîtront dans le sélecteur de modèles sous les noms o3, o4-mini et o4-mini-high, remplaçant o1, o3-mini et o3-mini-high.

Les utilisateurs Pro pourront accéder à o3-pro dans quelques semaines. Les modèles sont également accessibles aux développeurs via l’API.

Pour apaiser les inquiétudes concernant la sécurité des modèles, OpenAI a indiqué que les deux nouvelles versions ont été soumises à des tests de résistance dans le cadre de son programme de sécurité.

Bonus : Codex CLI

OpenAI a également lancé Codex CLI, un agent de codage open source qui s’exécute localement sur les terminaux des utilisateurs. Il vise à offrir un moyen simple et clair de connecter des modèles d’IA, notamment o3 et o4-mini (avec la prise en charge de GPT-4.1 prochainement), à leur propre code et aux tâches exécutées sur leur ordinateur. Codex CLI est open source et accessible dès maintenant sur GitHub.

OpenAI a également annoncé le lancement d’un programme de financement d’un million de dollars. Celui-ci vise à soutenir les projets en phase de démarrage en octroyant des subventions par tranches de 25 000 dollars via des crédits API. Les propositions peuvent être soumises via ce formulaire sur le site d’OpenAI.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.