Anthropic bloque ses services IA aux entreprises chinoises

Anthropic bloque ses services IA aux entreprises chinoises


Anthropic, qui a développé Claude, un concurrent de ChatGPT, coupe l’accès de ses services aux entreprises chinoises et à leurs filiales : une mesure qui vise à empêcher tout adversaire des États-Unis de progresser dans le domaine de l’IA, selon la société américaine.

Alors que Nvidia, le champion américain des puces, tente coûte que coûte de continuer à vendre ses semi-conducteurs en Chine, Anthropic, la start-up d’IA qui a développé le chatbot IA Claude, adopte une position contraire. L’entreprise américaine a annoncé, dans un billet de blog du jeudi 4 septembre, qu’elle coupe l’accès de ses services aux entreprises contrôlées par les ennemis des États-Unis, dont la Chine fait partie.

Parmi les régimes « autoritaires » auxquels elle s’interdit toute vente, sont désormais incluses les entreprises provenant de Chine, ainsi que leurs filiales localisées à l’étranger, qui pourraient être utilisées pour accéder à sa technologie et à d’autres applications militaires.

Cette décision va lui coûter « quelques centaines de millions de dollars »

Il s’agirait de « combler une lacune, qui permet aux entreprises chinoises d’accéder à l’IA de pointe », a expliqué l’entreprise au Financial Times, ce vendredi 5 septembre.

En Chine, Claude comme ses rivaux américains (ChatGPT, Gemini…) ne sont pas accessibles, sauf via des VPN. On ne sait pas quelle entreprise chinoise précisément utilise l’IA d’Anthropic, via des filiales ou via des services cloud, mais Anthropic a déclaré à nos confrères britanniques que cette décision allait bien lui coûter de l’argent. Ses revenus vont être allégés de « quelques centaines de millions de dollars », de quoi lui faire perdre une partie de son activité au profit de ses concurrents, a-t-elle reconnu.

À lire aussi : guerre des semi-conducteurs, les combines des géants chinois pour contourner les sanctions US

La Russie, l’Iran et la Corée du Nord aussi visés

Mais « la sécurité et la sûreté du développement de l’IA nécessitent un engagement collectif pour empêcher l’utilisation abusive (de l’IA, NDLR) par des adversaires autoritaires », a-t-elle souligné dans son communiqué.

Les sociétés chinoises « pourraient en effet utiliser nos capacités pour développer des applications et des services qui, en fin de compte, serviraient des services militaires et de renseignement hostiles et des objectifs autoritaires plus larges », écrit-elle. Ses modèles de langage pourraient être utilisés « pour faire progresser le propre développement (de la Chine, NDLR) en matière d’IA (…) et pour concurrencer à l’échelle mondiale des entreprises technologiques de confiance dont le siège social est situé aux États-Unis », détaille encore l’entreprise basée à San Francisco, dans son communiqué. La Russie, l’Iran et la Corée du Nord sont aussi visés par cette nouvelle règle.

Cette annonce intervient après le défilé commémorant la fin de la Seconde Guerre mondiale en Chine, analysé comme une démonstration de force militaire de Xi Jinping. Les États-Unis s’inquiètent de voir le pays utiliser l’IA à des fins militaires.

Anthropic dit soutenir les restrictions aux exportations liées à l’IA

Washington a aussi imposé de nombreuses restrictions à ses entreprises locales, et aux entreprises localisées dans des pays alliés, notamment sur les ventes de puces destinées à l’IA à la Chine.

Des règles qu’Anthropic soutient : la société affirme qu’elle « continuera à plaider en faveur de contrôles stricts des exportations américaines afin d’empêcher les adversaires des États-Unis de développer des capacités d’IA de pointe ».

Mais selon le quotidien britannique, c’est la première fois qu’une entreprise d’IA américaine écrit noir sur blanc qu’elle exclut de ses clients les entités contrôlées de près ou de loin par Pékin. En janvier dernier, la start-up chinoise DeepSeek avait provoqué une onde de choc dans la Silicon Valley en lançant son modèle open source R1, considéré comme équivalent aux principaux modèles américains. L’entreprise chinoise a été accusée par OpenAI, le développeur de ChatGPT, d’avoir utilisé ses modèles de langage pour entraîner R1, des allégations auxquelles l’entreprise chinoise n’a pas répondu.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.