OpenAI aurait pris de nouvelles mesures pour éviter tout vol de propriété intellectuelle : embauche d’ex-employés du renseignement ou militaire, cloisement des informations et des projets sensibles, renforcement du contrôle de certains employés…
Contre les tentatives d’espionnage et de vols de propriété intellectuelle, OpenAI, la start-up à l’origine de ChatGPT, aurait renforcé sa sécurité. Si l’entreprise américaine avait déjà adopté de nouvelles mesures l’année dernière, son niveau de sécurité serait monté d’un cran, en particulier après la sortie de l’outil chinois DeepSeek en début d’année, rapporte le Financial Times ce mardi 8 juillet.
Ce concurrent open source de ChatGPT, au coût bien moindre, avait inquiété les géants américains du secteur, et en particulier OpenAI. Le 29 janvier dernier, cette dernière accusait DeepSeek d’avoir abusivement copié ses modèles d’IA, en utilisant une technique connue sous le nom de « distillation », pour développer un système concurrent.
Cet épisode « a incité OpenAI à être beaucoup plus rigoureux », a déclaré une personne proche de son équipe de sécurité. Selon la source du média économique, l’entreprise aurait drastiquement renforcé son équipe dédiée à la sécurité et à la cybersécurité. En parallèle, elle aurait durci ses mesures de sécurité.
En interne, « la situation est devenue très tendue »
Concrètement, les informations sensibles sont plus cloisonnées et les employés davantage contrôlés. Les informations relatives aux algorithmes et aux nouveaux produits ne seraient plus qu’accessibles à certains salariés : le nombre d’entre eux ayant accès aux « nouveaux algorithmes an cours de développement » a été sensiblement réduit.
« La situation est devenue très tendue : soit on avait tout, soit on n’avait rien », a déclaré l’une des sources du média. « De plus en plus de personnes sont informées de ce qu’elles doivent savoir, sans être informées de ce que font les autres », poursuit-elle. Selon nos confrères américains, OpenAI imposerait des environnements isolés et cloisonnés à certaines équipes, avec des systèmes informatiques maintenus hors ligne et séparés des autres réseaux. L’accès à certains bureaux serait sous contrôle biométrique, avec des salariés contraints de scanner leurs empreintes digitales pour entrer dans certaines salles.
Deux experts militaires embauchés
La sécurité de ses centres de données a aussi été renforcée, notamment via le contrôle des employés ou des candidats à des offres d’emploi. OpenAI a également embauché des experts militaires ou du Renseignement, comme Dane Stuckey en octobre dernier. Le nouveau responsable de la sécurité de l’information est un ancien de la société de surveillance Palantir. Paul Nakasone, général de l’armée américaine à la retraite, a également été nommé au conseil d’administration d’OpenAI. Sa mission : superviser ses défenses contre les menaces de cybersécurité.
Toutes ces mesures sont loin d’être une surprise. Depuis près de deux ans, la Silicon Valley est régulièrement alertée de tentatives d’espionnage de pays étrangers, et régulièrement incitée à renforcer sa cybersécurité et la protection de ses informations confidentielles ou stratégiques. Fin 2023, les patrons des « Five Eyes » expliquaient par exemple avoir rencontré « en privé » une quinzaine de dirigeants de la Silicon Valley afin de les prévenir « d‘une campagne d’espionnage mondiale sans précédent » de Pékin.
À lire aussi : Comment la chute d’un agent de renseignement révèle l’ampleur de l’espionnage industriel chinois
Reste que toutes ces nouvelles mesures n’auraient pas pu empêcher un concurrent d’OpenAI de « distiller » ses modèles d’IA, une accusation portée par la firme américaine contre DeepSeek. Cette technique consiste en effet à accéder à l’interface de programmation d’application (API) d’un modèle, et à réutiliser les réponses générées par ce système pour entraîner un autre modèle d’IA. Or ici, la protection relative à ces réponses ne semble pas avoir été renforcée. Seul garde-fou : les conditions générales d’utilisation des modèles d’IA d’OpenAI interdisent toujours d’utiliser les résultats générés (les « données de sortie ») par ses systèmes « pour développer des modèles qui concurrencent OpenAI ».
À lire aussi : Vision Pro : Apple accuse un ex-employé de lui avoir volé des secrets de fabrication
Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.