OpenAI et Anthropic accusent DeepSeek et d’autres spécialistes chinois de l’IA d’extraire les capacités de leurs modèles Claude et GPT pour accélérer l’entraînement de leurs propres modèles. Ce qui ne manque pas de sel, alors que les deux géants américains sont visés par des actions en justice pour l’exploitation sans autorisation de contenus protégés.
Anthropic prend le taureau par les cornes. Dans un billet de blog furibard, le créateur de Claude explique avoir identifié une « campagne à l’échelle industrielle » menée par trois labos chinois, DeepSeek, Moonshot et MiniMax. Leur tort : avoir extrait illégalement les capacités du modèle IA d’Anthropic pour améliorer leurs propres modèles à moindres frais.
Quand les distillateurs sont distillés
Le procédé, baptisé « distillation », n’est pas en soi un crime. C’est même une pratique courante qui consiste à entraîner un modèle plus petit ou moins performant à partir des réponses d’un modèle plus puissant. Les grandes entreprises IA l’utilisent pour produire des versions allégées, moins coûteuses, destinées à leurs clients. En soi, la méthode n’a donc rien d’illégal.
Ce qui pose problème ici, selon Anthropic, c’est l’usage clandestin : au lieu de distiller leurs propres modèles, ces labos auraient utilisé Claude comme « professeur » involontaire. Cela permettrait d’acquérir certaines capacités « en une fraction du temps et du coût » nécessaires pour les développer indépendamment. Selon la start-up américaine, ces trois sociétés auraient créé plus de 24 000 comptes frauduleux et généré plus de 16 millions d’échanges avec Claude.
DeepSeek se serait contenté de 150 000 interactions avec Claude, contre 3,4 millions pour Moonshot et 13 millions pour MiniMax. Anthropic n’est pas seul sur ce terrain de bataille : OpenAI s’est plaint directement à la Maison Blanche en accusant DeepSeek d’avoir utilisé la même tactique, cette fois avec GPT.
Les trois labos chinois auraient ainsi extrait des capacités de raisonnement avancé, des alternatives à des requêtes politiquement sensibles, de la programmation pour le codage d’agents. Le volume et la répétition des requêtes auraient trahi une logique d’extraction systématique plutôt qu’un usage normal.
Pour Anthropic, cette pratique venant de concurrents chinois représente un risque de sécurité nationale pour les États-Unis. Les modèles américains intègrent des garde-fous pour limiter certains usages (biologie sensible, cyberattaques, etc.). Si un modèle est distillé illicitement, ces protections peuvent ne pas être reproduites alors que les capacités brutes, elles, subsistent. Des systèmes militaires ou de surveillance pourraient en profiter.
L’accusation n’est pas nouvelle : déjà en janvier 2025, OpenAI avait accusé DeepSeek — dont le modèle R1 avait secoué toute l’industrie IA — de distillation. Et à l’époque comme aujourd’hui, cela avait suscité une certaine moquerie.
L’ironie est que ces mêmes entreprises continuent de défendre devant les tribunaux leur droit à entraîner leurs modèles avec des océans de contenus protégés, souvent sans autorisation ni rémunération pour les auteurs. On l’a encore vu hier avec Mistral. D’un côté, la distillation serait une atteinte intolérable à l’innovation ; de l’autre, l’aspiration massive de textes, d’images et de données relèverait d’un usage équitable.
Quoi qu’il en soit, Anthropic ne veut pas rester les bras croisés. La start-up investit dans des mécanismes de défense pour freiner les campagnes illicites de distillation : systèmes de détection et d’identification, repérage d’activités coordonnées entre des milliers de comptes, partage d’indicateurs techniques avec d’autres entreprises IA, durcissement des procédures de vérification, etc. Mais l’entreprise reconnaît qu’aucun acteur ne pourra régler seul le problème : à cette échelle, la riposte devra être coordonnée entre industriels, hébergeurs et décideurs publics.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.
Source :
Anthropic