Anthropic aurait discrètement retiré de son site les engagements en faveur d’une IA responsable.
Selon l’organisme de surveillance The Midas Project, le texte a été supprimé la semaine dernière du hub de transparence de l’entreprise, où sont recensés ses « engagements volontaires » en matière de développement responsable de l’IA.
Bien que non contraignant, cet engagement incluait la promesse de partager des informations et des recherches sur les risques liés à l’IA, notamment les biais.
Un accord d’autorégulation désormais en retrait
En juillet 2023, Anthropic, aux côtés d’OpenAI, Google et Meta, avait adhéré à un accord volontaire d’autorégulation visant à encadrer le développement de l’IA. Les entreprises s’étaient engagées à respecter des normes strictes, notamment pour tester la sécurité des modèles avant leur publication, apposer un tatouage numérique sur le contenu généré par l’IA et développer des infrastructures de protection des données.
Anthropic avait également accepté de collaborer avec l’AI Safety Institute afin de mettre en œuvre plusieurs de ces initiatives. Mais avec l’arrivée de l’administration Trump, l’avenir de l’Institut semble incertain, son éventuelle dissolution laissant ces projets en suspens.
Anthropic n’a pas communiqué publiquement sur la suppression de cet engagement de son site et affirme que ses positions actuelles sur l’IA responsable ne dépendent pas des accords conclus sous l’ère Biden, voire leur sont antérieures.
Trump bouleverse la politique en matière d’IA
Cette décision s’inscrit dans une série de changements récents, tant dans le secteur public que privé, qui façonnent l’avenir de la sécurité et de la réglementation de l’IA sous l’administration Trump.
Dès son arrivée au pouvoir, Donald Trump a annulé le décret de Joe Biden sur l’intelligence artificielle, licencié plusieurs experts en IA au sein du gouvernement et réduit certains financements de recherche. Ces décisions semblent avoir provoqué un changement de ton au sein des grandes entreprises du secteur, dont certaines en profitent pour renforcer leurs contrats avec l’État et influencer une politique d’IA encore floue sous cette nouvelle administration.
Des géants comme Google adaptent ainsi leurs propres définitions de l’« IA responsable », déjà sujettes à interprétation. Parallèlement, le cadre réglementaire, déjà limité sous Biden, s’effrite davantage. Sans incitations extérieures, les entreprises semblent de moins en moins enclines à imposer des garde-fous à leurs technologies ou à rendre des comptes à des tiers.
Quant aux mesures de sécurité contre les biais et la discrimination, elles sont pour l’instant absentes des communications officielles de l’administration Trump sur l’intelligence artificielle.