Le gouverneur de Californie a sign 9 projets de loi rglementant les contenus gnrs par l’IA, pour rpondre aux risques lis aux « deepfakes ». Deux projets de loi concernent les acteurs et les interprtes, trois projets de loi visent lutter contre l’utilisation abusive de contenus gnrs par l’IA et quatre projets de loi visent rglementer l’utilisation de l’IA dans les campagnes lectorales. Mais les Big tech de l’IA critiquent le projet de loi pour la rgulation de l’IA, y voyant un frein l’innovation.
Ce mois de septembre 2024 a t particulirement anim par le dbat autour de la rglementation de l’intelligence artificielle (IA) en Californie aux tats-Unis. Fin aot, le projet de loi controvers sur l’IA a t adopt par l’Assemble lgislative. Le gouverneur californien Gavin Newsom avait jusqu’au 30 septembre pour dcider de le promulguer ou d’y opposer son veto.
Le projet de loi, connu sous le nom de « Safe and Secure Innovation for Frontier Artificial Intelligence Models Act », propose des mesures strictes pour garantir la scurit des modles dIA avancs. Le projet de loi imposerait davantage de responsabilits, notamment des tests de scurit et la mise en uvre de mesures de protection. Les entreprises doivent galement accepter de se soumettre des audits par des tiers.
Parmi les partisans de la rglementation de l’IA, plus de 125 acteurs, ralisateurs, producteurs, artistes musicaux et leaders de l’industrie du divertissement d’Hollywood ont sign une lettre pour exhorter le gouverneur Gavin Newsom signer le projet de loi. De l’autre ct, les Big tech comme Google, OpenAI ou Meta, s’y opposent, arguant que le projet de loi pourrait freiner l’innovation. Ils ont galement adress des lettres exprimant leurs proccupations.
La dcision tant attendue du gouvernement de Californie vient de tomber le 26 septembre 2024. Le gouverneur Gavin Newsom a sign 9 projets de loi rglementant les contenus gnrs par l’IA. La lgislation vise rpondre aux risques lis aux « deepfakes ».
Le gouverneur de Californie, Gavin Newsom, a sign neuf projets de loi visant lutter contre les risques lis aux contenus gnrs par l’IA, en particulier les « deepfakes ». Vingt-neuf autres textes lgislatifs relatifs l’IA attendent sa signature ou son veto avant la fin de la session lgislative de l’tat, le 30 septembre.
Parmi les textes lgislatifs qu’il a rcemment signs figurent deux projets de loi visant protger l’image numrique des acteurs et des interprtes – vivants ou dcds – contre toute utilisation non autorise de l’IA et d’autres technologies numriques :
- L’AB 2602 exige des contrats pour l’utilisation d’imitations profondes de la voix ou de l’image d’un artiste gnres par l’IA, et l’artiste doit tre reprsent professionnellement lors de la ngociation du contrat.
- L’AB 1836 interdit l’utilisation commerciale de copies profondes d’artistes-interprtes dcds dans des films, des missions de tlvision, des jeux vido, des livres audio, des enregistrements sonores et d’autres mdias sans le consentement des ayants droit de l’artiste-interprte.
Trois projets de loi visent lutter contre l’utilisation abusive de contenus gnrs par l’IA, notamment les « deepfakes » caractre sexuel :
- Le projet de loi SB 926 criminalise la cration et la distribution d’images sexuellement explicites d’une personne relle qui semblent authentiques lorsqu’elles sont destines causer une dtresse motionnelle.
- Le SB 981 exige que les plateformes de mdias sociaux crent un mcanisme permettant aux gens de signaler les deepfakes sexuellement explicites d’eux-mmes. Une fois le signalement effectu, la plateforme doit bloquer temporairement le matriel pendant qu’elle enqute et le supprimer dfinitivement s’il est confirm.
- Le SB 942 exige que les systmes d’IA gnrative placent des filigranes invisibles sur le contenu qu’ils produisent et fournissent des outils gratuits pour les dtecter afin que le contenu gnr par l’IA puisse tre facilement identifi.
Quatre projets de loi visent lutter contre l’utilisation de deepfakes et d’autres contenus trompeurs gnrs ou modifis numriquement dans les campagnes lectorales.
- L’AB 2655 exige des grandes plateformes en ligne qu’elles retirent ou tiquettent les contenus politiques trompeurs ou modifis numriquement pendant des priodes prcises autour des lections et qu’elles fournissent des moyens de les signaler.
- L’AB 2839 tend la priode pendant laquelle il est interdit aux entits politiques de distribuer sciemment une publicit ou tout autre matriel lectoral contenant un contenu trompeur gnr par l’IA.
- L’AB 2355 exige que les publicits politiques utilisant un contenu gnr par l’IA rvlent que le matriel a t modifi.
- L’AB 2905 exige que les robocalls informent les destinataires si la voix est gnre artificiellement.
Le gouverneur Gavin Newsom a comment cette annonce :
Nous continuons avancer en terrain inconnu lorsqu’il s’agit de savoir comment l’IA et les mdias numriques transforment l’industrie du divertissement, mais notre toile polaire a toujours t la protection des travailleurs. Cette lgislation permet l’industrie de continuer prosprer tout en renforant les protections des travailleurs et la manire dont leur image peut ou ne peut pas tre utilise.
Personne ne devrait tre menac par quelqu’un sur Internet qui pourrait l’imiter, en particulier de manire sexuellement explicite. Nous sommes une poque o les outils numriques tels que l’IA ont d’immenses capacits, mais ils peuvent aussi tre utiliss de manire abusive contre d’autres personnes. Nous prenons des mesures pour protger les Californiens.
La sauvegarde de l’intgrit des lections est essentielle la dmocratie, et il est primordial de veiller ce que l’IA ne soit pas dploye pour miner la confiance du public par la dsinformation, en particulier dans le climat politique actuel. Ces mesures permettront de lutter contre l’utilisation nfaste des deepfakes dans les publicits politiques et d’autres contenus. Il s’agit de l’un des nombreux domaines dans lesquels l’tat agit de manire proactive pour favoriser une IA transparente et digne de confiance.
Le texte le plus controvers est le SB 1047, qui oblige les dveloppeurs d’IA mettre en uvre des mesures de protection pour rduire le risque que leur technologie provoque ou permette une catastrophe, telle qu’un vnement impliquant un grand nombre de victimes ou une cyberattaque. Jusqu’ prsent, Gavin Newsom s’est montr timide quant ses projets concernant ce projet de loi.
Le projet de loi sur la scurit de l’IA, SB 1047, imposerait davantage de responsabilits tout dveloppeur dpensant plus de 100 millions de dollars pour construire un modle d’IA. Les exigences comprennent des tests de scurit, la mise en uvre de mesures de protection et la possibilit pour le procureur gnral de l’tat de prendre des mesures l’encontre du dveloppeur de tout modle d’IA qui cause un « prjudice grave », tel que des pertes massives ou des incidents entranant des dommages d’une valeur de 500 millions de dollars ou plus.
Si la ncessit de limiter les risques lis aux nouveaux modles d’IA puissants est largement admise, les critiques ont fait valoir que les propositions toufferaient les start-ups, profiteraient aux rivaux amricains et compromettraient la position centrale de la Californie dans l’essor de l’IA. Jason Kwon, directeur de la stratgie d’OpenAI, avait dclar que le projet de loi SB 1047 menace « le statut unique de la Californie en tant que leader mondial de l’intelligence artificielle« . Il ajoute que cela pourrait « ralentir le rythme de l’innovation et inciter les ingnieurs et les entrepreneurs californiens de classe mondiale quitter l’tat la recherche de meilleures opportunits ailleurs« .
Source : Legislature de Californie
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous que ces projets de loi sont crdibles ou pertinents ?
Voir aussi :