En ouvrant la porte de ChatGPT au Pentagone, OpenAI a provoqué la colère de ses utilisateurs et de ses employés. Dos au mur, la start-up indique avoir apporté des modifications clés à son accord avec l’armée américaine. OpenAI reconnaît toutefois que son droit de regard sur l’usage de l’IA dans les opérations militaires est plus que limité…
Profitant de la discorde entre Anthropic et l’administration Trump, OpenAI a signé un accord avec le Pentagone. L’accord prévoit d’autoriser le département de la Guerre américaine (DoW) à se servir de ChatGPT dans le cadre de ses opérations militaires. Bien qu’OpenAI ait mis en avant les nombreuses « garanties techniques » visant à éviter les dérives, l’annonce a provoqué un véritable tollé. De nombreux utilisateurs se sont mis à désinstaller ChatGPT de leur smartphone. Aux États-Unis, les désinstallations de l’app ont bondi d’environ 300% en un jour et les avis négatifs explosent, que ce soit sur le Play Store ou sur l’App Store.
L’accord passé avec le gouvernement américain a également fait bondir les employés d’OpenAI. En s’associant à leurs homologues de Google, les salariés d’OpenAI ont publié une lettre ouverte. Celle-ci encourage les dirigeants de la start-up à « continuer de refuser les demandes actuelles du Département de la Guerre d’autoriser l’utilisation de nos modèles à des fins de surveillance de masse intérieure et d’élimination autonome de personnes sans contrôle humain ». La lettre a été signée par près de 1000 personnes.
À lire aussi : Le créateur de ChatGPT relativise la consommation de l’IA avec un argument surprenant
OpenAI tente d’éteindre la polémique
Face à la polémique grandissante, Sam Altman, le patron d’OpenAI, est monté au créneau. L’entrepreneur reconnaît que sa société n’aurait pas dû « se précipiter » en communiquant aussi vite sur l’accord. Nous « essayions sincèrement de désamorcer les tensions et d’éviter une situation bien pire, mais je pense que cela a donné une impression d’opportunisme et de négligence », explique Altman.
Here is re-post of an internal post:
We have been working with the DoW to make some additions in our agreement to make our principles very clear.
1. We are going to amend our deal to add this language, in addition to everything else:
“• Consistent with applicable laws,…
— Sam Altman (@sama) March 3, 2026
Pour éteindre la controverse, l’homme d’affaires américain ajoute qu’OpenAI a tenu à « apporter quelques modifications » à son accord avec le Pentagone. L’accord inclut désormais des clauses qui précisent que « le système d’IA ne doit en aucun cas être utilisé intentionnellement pour des opérations de surveillance intérieure visant des personnes ou des ressortissants américains ».
Par ailleurs, les modifications interdisent noir sur blanc aux agences de renseignement, dont l’Agence de sécurité nationale (NSA), de se servir des technologies ChatGPT. Toute « prestation de services à ces agences nécessiterait un nouvel accord », ce qui laisse entendre qu’un contrat taillé pour les agences de renseignement n’est pas exclu. Sur X, Sam Altman souligne que le département de la Guerre comprend bien les nouvelles clauses du partenariat.
« La technologie n’est pas encore suffisamment mûre pour de nombreux cas d’usage, et nous ne comprenons pas encore tous les compromis à faire en matière de sécurité. Nous allons y travailler de manière progressive, en collaboration avec le ministère de la Guerre, en nous appuyant sur des dispositifs techniques et d’autres approches », déclare le patron d’OpenAI.
Un droit de regard limité
En dépit des clauses ajoutées par la start-up pour rassurer ses employés et ses utilisateurs, OpenAI n’aurait pas son mot à dire sur la manière dont l’IA sera exploitée par l’armée, rapporte CNBC. Lors d’une réunion interne, Sam Altman s’est montré très clair : l’entreprise ne dispose d’aucune marge de manœuvre pour « prendre des décisions opérationnelles » concernant la manière dont le gouvernement exploite sa technologie d’intelligence artificielle.
« Vous pensez peut-être que la frappe contre l’Iran était justifiée et l’invasion du Venezuela, une erreur. Vous n’avez pas votre mot à dire là-dessus », résume le PDG.
Néanmoins, Sam Altman assure ses employés que le Pentagone reconnaît l’expertise technique d’OpenAI et souhaite leur retour sur les usages pertinents de ses modèles. Le gouvernement Trump laissera également l’entreprise concevoir le système de sécurité qu’elle juge adapté, mais cela s’arrête là. Le Pentagone a bien insisté sur le fait que les décisions opérationnelles lui incombent.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.