Donald Trump réfléchit à encadrer l’intelligence artificielle aux États-Unis

Donald Trump réfléchit à encadrer l'intelligence artificielle aux États-Unis



Après avoir démantelé les garde-fous de l’ère Biden, la Maison-Blanche envisage un processus fédéral de validation des modèles d’IA. Un revirement spectaculaire, poussé par un modèle qui inquiète jusqu’à son propre créateur.

L’administration Trump envisage de créer par décret un groupe de travail dédié à l’intelligence artificielle. Parmi les pistes étudiées : un processus de contrôle gouvernemental des nouveaux modèles d’IA avant leur mise à disposition du public. Des responsables de la Maison-Blanche en auraient discuté la semaine précédente avec des dirigeants d’Anthropic, de Google et d’OpenAI, selon Bloomberg.

Claude Mythos, le modèle qui a accéléré la réflexion

Le déclencheur porte un nom. Anthropic a présenté le 7 avril son modèle Claude Mythos Preview, accompagné du projet Glasswing. Ce consortium de tests de sécurité réunit une poignée d’organisations triées sur le volet. Le modèle n’a pas été rendu public, et pour cause.

En sept semaines de tests, Mythos a identifié plus de 2 000 vulnérabilités logicielles inconnues sur l’ensemble des grands systèmes d’exploitation et navigateurs. Il a retrouvé un bug vieux de 27 ans dans OpenBSD. Son taux de reproduction d’exploits fonctionnels au premier essai atteint 83 %. L’AI Safety Institute britannique (une des seules organisations non-américaines à avoir eu accès au modèle) a confirmé que le modèle représentait un saut par rapport aux générations précédentes en matière de capacités offensives en cybersécurité.

Lire aussi : « La fin des failles de sécurité » – Mozilla a corrigé 271 vulnérabilités dans Firefox grâce à Claude Mythos

Selon Reuters, ces performances auraient directement alimenté les discussions à la Maison-Blanche. La porte-parole a répondu sobrement que « toute annonce viendrait directement du président » et qualifié les rumeurs de « spéculation ».

Le virage est d’autant plus notable que Trump avait révoqué le décret Biden sur la sécurité de l’IA. C’était en janvier 2025, au premier jour de son mandat. Ce texte d’octobre 2023 imposait aux développeurs de partager leurs résultats de tests avec le gouvernement fédéral. Son remplacement par un AI Action Plan permissif visait à libérer l’industrie américaine face à la Chine.

Washington se rapproche (malgré lui) du modèle européen

Le 2 août 2026, l’Union européenne appliquera l’intégralité des obligations de l’AI Act sur les systèmes d’IA à haut risque. Biométrie, recrutement, santé, services financiers, infrastructures critiques : tous les usages sensibles devront passer par une évaluation de conformité documentée. Les sanctions peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial.

En France, la CNIL a été désignée autorité nationale de coordination pour l’application du texte. Le gouvernement a par ailleurs investi 400 millions d’euros dans neuf clusters IA pour accompagner la filière. L’obligation de formation aux enjeux de l’IA (article 4 du règlement) s’applique à toutes les entreprises depuis février 2025.

Côté américain, l’absence de cadre fédéral a produit un patchwork de lois que les États n’ont pas fini de cadrer. 38 États ont adopté leurs propres lois sur l’IA entre 2024 et 2026. Le Colorado exige des audits annuels sur la discrimination algorithmique. La Californie a fait voter un texte successeur au SB 1047 (qui était lui-même une transposition du texte de loi de l’administration Biden révoqué par Trump à son arrivée à la Maison Blanche). Le Texas et la Floride ont pris le chemin inverse, avec des lois protégeant les développeurs de toute contrainte étatique.

Pour les entreprises européennes qui opèrent aux États-Unis (et inversement), la perspective d’un double régime de conformité se précise. L’AI Act impose un cadre centralisé. Washington oscille entre dérégulation et contrôle au cas par cas. Naviguer entre les deux promet d’être aussi complexe que coûteux.

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.

Source :

The New York Times



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.