Anthropic a choisi de dire non au Pentagone. À la suite d’un bras de fer inédit entre une start-up d’IA et l’administration Trump, Claude ne sera plus utilisé par les forces armées. Pour remplacer Claude, le ministère de la Défense a négocié un accord avec OpenAI, le créateur de ChatGPT.
Anthropic dit non à l’armée américaine. La start-up à l’origine de Claude a décidé d’interdire au Pentagone de se servir de son IA générative à des fins militaires. Le torchon s’est mis à brûler lorsque l’armée a utilisé une version militarisée de Claude, intégrée à un système de drone, lors du raid contre Nicolás Maduro au Venezuela. La société a protesté en rappelant qu’il s’agit d’une infraction à ses conditions d’utilisation, qui interdisent l’usage de Claude pour la violence, les armes ou la surveillance.
Dans un communiqué, Dario Amodei, le patron d’Anthropic, explique qu’en « toute conscience », il ne peut pas fournir « un produit qui met militaires et civils américains en danger ». Il estime que le fait d’utiliser l’IA « à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques ».
En amont de la décision d’Anthropic, le ministre de la Défense Pete Hegseth avait convoqué Dario Amodei pour lui mettre la pression. Le ministre avait enjoint l’entrepreneur d’ouvrir complètement l’accès de Claude aux forces armées, en levant les restrictions d’utilisation par défaut. Pour justifier son refus, Dario Amodei souligne que les systèmes d’IA les plus sophistiqués ne sont pas encore assez fiables pour leur confier le pilotage d’armes létales. Dans « un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques, plutôt que les défendre », fait valoir le patron d’Anthropic.
À lire aussi : L’IA Claude peut mettre fin aux « conversations nuisibles ou abusives », promet Anthropic
Une « ENTREPRISE D’EXTRÊME GAUCHE WOKE »
En réaction, Donald Trump a ordonné à toute son administration de « cesser immédiatement toute utilisation » de Claude. Le président explique avoir demandé à « TOUTES les agences fédérales du gouvernement américain de CESSER IMMEDIATEMENT toute utilisation de la technologie d’Anthropic ». Considérant qu’Anthropic est une « ENTREPRISE D’EXTRÊME GAUCHE WOKE » qui est « dirigée par des gens qui n’ont aucune idée de ce qu’est le monde réel », Trump ajoute ne pas vouloir ni avoir besoin de la technologie de la société. Leur « égoïsme met en danger des vies américaines, nos troupes et la sécurité nationale », a estimé le républicain dans une publication sur Truth Social. De son côté, Pete Hegseth a accusé Anthropic d’« arrogance et de trahison », ajoutant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».
This week, Anthropic delivered a master class in arrogance and betrayal as well as a textbook case of how not to do business with the United States Government or the Pentagon.
Our position has never wavered and will never waver: the Department of War must have full, unrestricted…
— Secretary of War Pete Hegseth (@SecWar) February 27, 2026
En dépit du refus affiché par Anthropic, l’armée américaine s’est servie de Claude dans le cadre des frappes récentes contre l’Iran, révèlent le Wall Street Journal et Axios. L’armée américaine s’est servie de ces outils pour recueillir du renseignement, choisir plus facilement ses cibles et simuler le déroulement des combats sur le terrain. L’abandon des technologies Anthropic risque de prendre plusieurs mois. Contrairement à ce que laisse entendre Donald Trump, il n’est pas possible pour l’armée d’arrêter d’utiliser Claude du jour au lendemain. Comme l’explique le ministre de la Défense des États-Unis, Anthropic va continuer à fournir ses services d’IA « pendant une période n’excédant pas six mois afin de permettre une transition en douceur vers un service plus performant et plus patriotique ».
La décision d’Anthropic a été massivement saluée par des employés de la Silicon Valley. Dans une lettre ouverte, 400 employés de sociétés phares, dont Google et OpenAI, se sont réjouis de la posture adoptée par Anthropic. Des syndicats d’Amazon, Microsoft et Google ont appelé leurs directions à prendre exemple sur la start-up et à « refuser les exigences du Pentagone ».
À lire aussi : Anthropic dévoile Claude Sonnet 4.6, sa nouvelle IA de référence
ChatGPT à la rescousse de l’armée américaine
C’est à ce moment-là qu’OpenAI est entré dans l’équation. Peu après le refus catégorique d’Anthropic d’ouvrir Claude à l’armée, la start-up derrière ChatGPT a conclu un accord avec le Pentagone. En dépit de protestations de ses salariés, le géant de l’intelligence artificielle a négocié un accord sous certaines « garanties », explique Sam Altman dans un communiqué publié sur X.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…
— Sam Altman (@sama) February 28, 2026
L’entrepreneur, et fervent défenseur de l’IA, indique que le Pentagone a accepté de se plier à deux des « principes de sécurité les plus importants » d’OpenAI, à savoir « l’interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes ». Ainsi décrits, les principes d’OpenAI sont proches de ceux d’Anthropic. Le patron d’OpenAI ajoute que ses équipes mettront « également en place des garanties techniques pour nous assurer que nos modèles se comportent comme ils le devraient ». Dans un billet sur son site, OpenAI souligne « que d’autres laboratoires d’IA ont réduit, voire supprimé, leurs garde-fous et se sont principalement appuyés sur des politiques d’utilisation comme principal rempart dans le cadre de déploiements liés à la sécurité nationale », taclant à demi-mots son rival Anthropic. Le roi de l’IA se dit persuadé que son approche, reposant surtout sur des garanties techniques, « offre une meilleure protection contre les utilisations abusives ».
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.