Anthropic affirme avoir déjoué une cyberattaque mondiale exploitant l’IA. Pour la première fois, une IA autonome, pilotée par des hackers chinois financés par Pékin, a mené de bout en bout une vaste opération d’espionnage contre une trentaine d’organisations.
Anthropic, la start-up à l’origine de Claude, indique avoir « déjoué une campagne d’espionnage extrêmement sophistiquée » qui était orchestrée par une intelligence artificielle. L’entreprise américaine se dit convaincue que l’attaque a été perpétrée par un gang de hackers mandatés par la Chine. Pour Anthropic, il s’agit du « premier cas documenté d’une cyberattaque à grande échelle menée par l’IA sans intervention humaine significative ».
We disrupted a highly sophisticated AI-led espionage campaign.
The attack targeted large tech companies, financial institutions, chemical manufacturing companies, and government agencies. We assess with high confidence that the threat actor was a Chinese state-sponsored group.
— Anthropic (@AnthropicAI) November 13, 2025
L’offensive a été identifiée par les équipes d’Anthropic au cours du mois de septembre 2025. Avec l’aide de l’outil Claude Code, un assistant de codage pour développeurs, les pirates chinois ont pénétré dans les infrastructures informatiques d’une trentaine de grandes organisations à travers le monde. Parmi les cibles, on trouve « de grandes entreprises technologiques, des institutions financières, des entreprises de fabrication chimique et des agences gouvernementales ». L’opération visait à exfiltrer une grande quantité d’informations confidentielles.
À lire aussi : Voici le précurseur des virus pilotés par l’IA, MalTerminal
L’IA, d’outil à cerveau criminel
Pour arriver à leurs fins, les pirates ont été obligés de contourner les restrictions mises en place par Anthropic. Les hackers ont manipulé l’IA pour lui faire croire qu’elle menait des missions de tests de sécurité. De cette façon, elle a pu ignorer ses garde-fous éthiques. Le module de génération de code de Claude a notamment été mis à profit par les hackers, comme l’a remarqué Anthropic.
Une fois sous la coupe des hackers, l’IA commence par cartographier le réseau de la cible très rapidement, identifiant où se trouvent les bases de données sensibles. Exploitant les failles découvertes par ses soins, elle récupère les identifiants d’accès, s’empare d’autant de données sensibles qu’elle peut, puis classe et documente toutes les informations volées. Dans la foulée, elle glisse une porte dérobée. Cette porte lui permet de revenir plus tard sur le système compromis.
Dans le cadre de cette cyberattaque, l’IA n’était pas qu’un simple outil. Comme l’explique le rapport d’Anthropic, l’intelligence artificielle a pris en charge pratiquement toute la mission. Durant l’attaque, l’IA choisit automatiquement ce qu’il faut faire et comment s’adapter en cas d’obstacle. Les chercheurs ont remarqué que l’intelligence artificielle analysait toute seule le réseau, repérait où chercher les informations critiques en toute autonomie, puis lançait elle-même les attaques.
« Les modèles d’IA peuvent agir comme de véritables agents : ils sont capables de fonctionner en continu, d’enchaîner des actions autonomes et de prendre des décisions par eux-mêmes, tout en ne nécessitant qu’une intervention humaine occasionnelle et minimale », souligne Anthropic.
Elle écrivait même le code malveillant à la volée, testait les failles de sécurité, et décidait d’extraire ou de déplacer des données selon ce qu’elle découvrait. L’humain n’intervenait que pour valider chaque étape. Bref, l’IA était parfaitement autonome. L’attaquant a « pu utiliser l’IA pour mener à bien 80 à 90 % de la campagne ».
Une fois sa mission terminée, l’IA rédige un rapport complet pour les pirates , qui recense les accès obtenus, les failles exploitées, et les données extraites par ses soins.
À lire aussi : Cyberattaques animées par l’IA – le premier ransomware intelligent a été découvert
Une IA un peu trop confiante
Durant l’attaque, Claude s’est montré faillible. Comme toutes les IA, Claude est en effet susceptible d’avoir des hallucinations, c’est-à-dire d’inventer des informations avec aplomb. En l’occurrence, l’IA a inventé des mots de passe ou voler des informations publiques en les présentant comme des données confidentielles. En résumé, il arrivait souvent que l’IA surestime ses succès et oblige les hackers à vérifier eux-mêmes si les données recueillies étaient vraiment exploitables. Plusieurs erreurs ont ainsi freiné les cybercriminels au cours de leurs intrusions. Anthropic assure que les comptes des hackers ont été bannis dès qu’une utilisation abusive a été détectée. Par ailleurs, la start-up a mis à jour ses garde-fous pour lutter contre les tentatives de manipulation.
Les cybercriminels se servent de plus en plus de l’IA pour orchestrer leurs attaques. Le cas épinglé par Anthropic rappelle celui des virus IA récemment mis en avant par le Google Threat Intelligence Group (GTIG). Ces malwares peuvent muter et changer leur code en temps réel pendant une attaque. Cela leur permet d’échapper aux antivirus et de s’adapter à chaque victime. Là encore, les pirates se sont servis d’IA populaires, comme Gemini, pour écrire automatiquement du code malveillant.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.