En réponse à Claude Mythos, OpenAI lance son ChatGPT chercheur en cybersécurité

En réponse à Claude Mythos, OpenAI lance son ChatGPT chercheur en cybersécurité



OpenAI cherche à bousculer le monde de la cybersécurité. La start-up vient de dégainer une version de ChatGPT capable de traquer les failles de sécurité, mais elle sera réservée aux chercheurs et aux spécialistes de la défense. Le roi de l’IA cherche surtout à proposer une alternative, plus ouverte, à Claude Mythos de son rival Anthropic.

OpenAI vient de lancer GPT-5.4-Cyber, un modèle d’intelligence artificielle taillé pour révolutionner le monde de la cybersécurité. Comme son nom l’indique, il s’agit d’une version affinée du modèle GPT-5.4, lancé le mois dernier par la start-up, capable de traquer les failles de sécurité. OpenAI explique avoir retravaillé ses « modèles spécifiquement pour permettre des cas d’utilisation de cybersécurité défensive, en commençant aujourd’hui par une variante de GPT-5.4 entraînée pour être cyber-permissive ».

À lire aussi : Semaine de 32 h, confinement, redistribution des richesses… OpenAI dévoile son plan contre les menaces de l’IA

Débusquer des failles sans accès au code source

Parmi les atouts de ce modèle, on trouve sa capacité à analyser un logiciel compilé pour en évaluer le potentiel malveillant, détecter des failles de sécurité ou mesurer sa robustesse, sans avoir besoin d’accéder au code source original. L’IA est donc en mesure d’étudier et d’analyser le code d’un malware, d’un logiciel espion, ou d’une application inconnue, et d’en détricoter toutes les vulnérabilités. Le modèle « abaisse le seuil de refus pour les travaux légitimes de cybersécurité » et permet de faire une multitude de recherches, interdites par les versions classiques de ChatGPT.

OpenAI précise également que ce modèle est conçu pour préparer l’arrivée de versions encore plus puissantes dans les prochains mois. Il faut s’attendre à ce que d’autres itérations de GPT, programmées pour la cybersécurité, voient le jour dans un avenir proche. L’annonce survient seulement une semaine après le lancement de Claude Mythos, l’IA d’Anthropic conçue pour débusquer les vulnérabilités et mettre sur pied des méthodes d’exploitation. Avec GPT-5.4-Cyber, la start-up de Sam Altman cherche ouvertement à répondre à son rival, qui grignote ses parts de marché dans le monde professionnel.

La sortie d’une alternative à Claude Mythos s’inscrit dans le cadre d’un virage stratégique plus large visant à faire de l’ombre à Anthropic. La start-up a notamment décidé de se recentrer sur le développement logiciel et les usages professionnels, en mettant un terme à plusieurs initiatives annexes, comme le réseau social Sora.

Une IA réservée aux « défenseurs de la cybersécurité »

Pour éviter que les capacités avancées de GPT-5.4-Cyber ne tombent dans de mauvaises mains, OpenAI a décidé de ne pas mettre l’IA à disposition du public. En miroir de la stratégie d’Anthropic avec Mythos, le roi de l’IA va réserver son modèle cyber à des entités qui peuvent prouver leur légitimité, comme des entreprises de cybersécurité, des chercheurs accrédités, et des équipes chargées de protéger des infrastructures critiques. Les particuliers et les entreprises peuvent déposer une demande, et « s’authentifier en tant que défenseurs de la cybersécurité ».

Afin d’organiser la mise à disposition de GPT-5.4-Cyber, OpenAI a lancé le programme Trusted Access for Cyber (TAC). Celui-ci fonctionne par niveaux d’accès. Plus la vérification du demandeur d’accès est poussée, plus les compétences qui peuvent être débloquées sont avancées. Seul le niveau le plus élevé donne accès à GPT-5.4-Cyber dans sa version la plus permissive, c’est-à-dire celle capable de débusquer les failles d’un code aussi bien, voire mieux, qu’un expert humain.

À lire aussi : OpenAI lève 122 milliards de dollars pour « bâtir l’infrastructure même de l’intelligence artificielle »

Une approche opposée à celle de son rival

OpenAI a annoncé vouloir étendre ce programme à des milliers d’experts vérifiés et à des centaines d’équipes de cybersécurité dans un avenir proche. La start-up estime qu’il n’est pas «approprié de décider de manière centralisée qui a le droit de se défendre» en utilisant l’IA. Son objectif est donc « de permettre au plus grand nombre de défenseurs légitimes possible d’y accéder, sur la base d’une vérification, de signaux de confiance et d’une responsabilité claire ».

Avec ces quelques phrases glissées dans un communiqué, OpenAI tacle l’approche d’Anthropic, qui a décidé de réserver Claude Mythos à des grands noms comme Amazon, Apple, Google, Microsoft, ou NVIDIA. À contre-courant d’OpenAI, Anthropic ne prévoit pas d’ouvrir les vannes de son modèle d’IA taillé pour la cybersécurité.

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.