Le projet de loi californien SB-1047 vise prvenir les catastrophes potentielles lies l’IA Mais les critiques craignent que l’accent mis sur les menaces existentielles de futures IA ne nuise la R&D

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



La loi californienne Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (alias SB-1047) a fait couler beaucoup d’encre et suscit un dbat sur la scurit gnrale des grands modles d’intelligence artificielle. Bien que le projet de loi vise prvenir les catastrophes potentielles lies lIA, les critiques craignent que l’accent exagr mis par le projet de loi sur les menaces existentielles poses par les futurs modles d’intelligence artificielle ne limite considrablement la recherche et le dveloppement d’utilisations plus prosaques et non menaantes de l’intelligence artificielle aujourd’hui.

Le 7 fvrier 2024, le Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act (SB 1047) a t prsent au Snat californien. Le projet de loi vise imposer une diligence raisonnable, des tests et des conclusions supplmentaires pour certains modles d’intelligence artificielle couverts avant leur utilisation commerciale, publique ou grande chelle.

La proposition de loi impose aux dveloppeurs de systmes d’intelligence artificielle de s’assurer que leurs modles ne possdent pas de capacits dangereuses, telles que la cration d’armes biologiques ou nuclaires ou l’aide aux attaques de cyberscurit. Le projet de loi, qui a dj t adopt par le Snat de l’tat le 21 mai 2024 et devrait tre soumis au vote de l’assemble gnrale en aot, exige galement des dveloppeurs qu’ils rendent compte de leurs tests de scurit et qu’ils mettent en place un interrupteur d’arrt pour dsactiver leurs modles en cas de besoin.

Le projet de loi vise les grandes start-ups d’IA comme OpenAI, Anthropic et Cohere, ainsi que les grands modles de langage des gants de la technologie tels que Meta. Le snateur dmocrate de l’tat, Scott Wiener, qui a prsent le projet de loi, a soulign la ncessit de mesures de scurit proactives en dclarant : Fondamentalement, je souhaite que l’IA russisse et que l’innovation se poursuive, mais essayons d’anticiper tout risque en matire de scurit . Il a dcrit le projet de loi comme une mesure lgre visant garantir des valuations de scurit de base et l’attnuation des risques.

Un cadre juridique qui s’articule autour des incidents de scurit , entre autres ceux causs par l’IA… de son propre chef

Il a t adopt par le Snat de Californie en mai par 32 voix contre 1 et semble bien plac pour un vote final l’Assemble de l’tat au mois d’aot. Le texte du projet de loi exige que les entreprises l’origine de modles d’IA suffisamment importants (actuellement fixs 100 millions de dollars en cots de formation et la puissance de calcul approximative qu’impliquent ces cots aujourd’hui) mettent en place des procdures et des systmes de test pour prvenir et ragir aux incidents de scurit .

Le projet de loi donne une dfinition juridique de ces incidents de scurit qui, son tour, se concentre sur la dfinition d’un ensemble de dommages critiques qu’un systme d’IA pourrait permettre. Il s’agit notamment de prjudices entranant des pertes massives ou des dommages d’au moins 500 millions de dollars , tels que la cration ou l’utilisation d’une arme chimique, biologique, radiologique ou nuclaire ou des instructions prcises pour mener une cyberattaque […] sur une infrastructure critique . Le projet de loi fait galement allusion d’autres prjudices graves pour la scurit publique qui sont d’une gravit comparable ceux noncs explicitement.

Le crateur d’un modle d’IA ne peut tre tenu responsable des dommages causs par le partage d’informations accessibles au public provenant de l’extrieur du modle – le simple fait de demander un LLM de rsumer The Anarchist Cookbook (Le Livre de recettes anarchistes, un livre de l’crivain amricain William Powell rdig comme manifeste contre le gouvernement des tats-Unis et la guerre du Viet Nam) ne le mettrait probablement pas en infraction avec la loi, par exemple. Le projet de loi semble plutt se proccuper des futures IA qui pourraient crer de nouvelles menaces pour la sret et la scurit publiques . Plus qu’un humain utilisant une IA pour trouver des ides nuisibles, SB-1047 se concentre sur l’ide d’une IA s’engageant de manire autonome dans un comportement autre que celui demand par un utilisateur tout en agissant avec une surveillance, une intervention ou une supervision humaine limite .

Pour viter cette ventualit digne de la science-fiction, toute personne entranant un modle suffisamment grand doit mettre en uvre la capacit de procder rapidement un arrt complet et mettre en place des politiques pour dterminer quand un tel arrt serait effectu, parmi d’autres prcautions et tests. Le projet de loi met galement l’accent sur des actions de l’IA qui ncessiteraient une intention, une imprudence ou une ngligence grave si elles taient effectues par un humain, ce qui suggre un degr d’autonomie qui n’existe pas dans les grands modles de langage d’aujourd’hui.


Scott Wiener, lgislateur dmocrate au Snat de l’tat de Californie, propose une lgislation visant rglementer l’IA

Skynet, les origines ?

Ce type de formulation dans le projet de loi reflte probablement les craintes particulires de son rdacteur initial, le cofondateur du Center for AI Safety (CAIS), Dan Hendrycks. Dans un article paru dans Time Magazine en 2023, Hendrycks avance l’argument existentiel maximaliste selon lequel les pressions volutives inculqueront probablement aux IA des comportements favorisant l’auto-prservation et conduiront une voie vers leur supplantation en tant qu’espce dominante de la Terre .

Si Hendrycks a raison, une loi comme la SB-1047 semble tre une prcaution de bon sens – en fait, elle pourrait ne pas aller assez loin. Les partisans du projet de loi, dont Geoffrey Hinton et Yoshua Bengio, sommits de l’IA, sont d’accord avec Hendrycks pour dire que le projet de loi est une tape ncessaire pour prvenir les dommages catastrophiques potentiels causs par les systmes d’IA avancs.

Les systmes d’IA dpassant un certain niveau de capacit peuvent poser des risques significatifs pour les dmocraties et la scurit publique , a crit Bengio dans un soutien au projet de loi. C’est pourquoi ils doivent tre tests correctement et soumis des mesures de scurit appropries. Ce projet de loi propose une approche pratique pour y parvenir et constitue une tape importante vers les exigences que j’ai recommandes aux lgislateurs .

Cependant, les critiques soutiennent que la politique en matire d’IA ne devrait pas tre guide par des craintes farfelues de systmes futurs qui ressemblent plus de la science-fiction qu’ des technologies actuelles. Le SB-1047 a t rdig l’origine par des groupes but non lucratif qui croient la fin du monde par une machine sensible, comme le Center for AI Safety de Dan Hendrycks , a dclar Daniel Jeffries, une voix minente dans la communaut de l’IA. Vous ne pouvez pas partir de ce postulat et crer un projet de loi de scurit sain, solide et lger .

Si nous voyons ici un comportement de recherche de pouvoir, ce n’est pas de la part des systmes d’IA, mais des prophtes de malheur de l’IA , a ajout l’expert en politique technologique Nirit Weiss-Blatt. Avec leurs peurs fictives, ils tentent de faire passer une lgislation fictive qui, selon de nombreux experts en IA et dfenseurs de l’open source, pourrait ruiner l’avantage technologique de la Californie et des tats-Unis.

L’opposition de l’industrie

La proposition de loi a suscit une vive opposition de la part de l’industrie technologique, en particulier dans la Silicon Valley. Ses dtracteurs estiment qu’elle pourrait touffer l’innovation et pousser les jeunes pousses de l’IA quitter la Californie. Andrew Ng, minent informaticien et membre du conseil d’administration d’Amazon, a critiqu le projet de loi en dclarant : Si quelqu’un voulait laborer des rglementations pour touffer l’innovation, il pourrait difficilement faire mieux. Il cre des responsabilits massives pour des risques de science-fiction, et alimente ainsi la peur chez tous ceux qui osent innover .

Arun Rao, chef de produit pour l’IA gnrative chez Meta, a galement fait part de ses inquitudes, qualifiant le projet de loi d’irralisable et avertissant qu’il pourrait mettre fin l’open source en [Californie] . Il a ajout que l’impact conomique pourrait tre substantiel, cotant potentiellement des milliards lorsque les entreprises et les travailleurs hautement rmunrs quitteront l’tat.

Malgr les ractions ngatives, Wiener reste attach au projet de loi, dclarant : Il s’agit du secteur technologique, qui n’aime pas les rglementations, et je ne suis donc pas du tout surpris qu’il y ait des ractions ngatives . Il a galement fait part de son intention d’amender le projet de loi afin d’en clarifier le champ d’application, notamment en exemptant les modles open source de l’obligation de kill switch et en limitant l’application du projet de loi aux grands modles dont la formation a cot au moins 100 millions de dollars.

Un contexte rglementaire plus large

Le dbat sur la rglementation de l’IA ne se limite pas la Californie. Les gouvernements du monde entier s’efforcent de grer les progrs rapides de la technologie de l’IA. En octobre, le prsident amricain Joe Biden a publi un dcret visant tablir de nouvelles normes en matire de sret de l’IA et de scurit nationale, protger les citoyens contre les risques d’atteinte la vie prive lis l’IA et lutter contre la discrimination algorithmique. Le gouvernement britannique a galement prsent des projets de rglementation de l’IA, et l’Union europenne a adopt une lgislation complte visant mettre en place des garde-fous pour cette technologie.

Edward Snowden, le lanceur d’alerte qui a rvl les programmes de surveillance mondiale du gouvernement amricain, s’est exprim sur la question lors d’un appel vido l’occasion de l’vnement SuperAI Singapour. Il a mis en garde contre une rglementation excessive en dclarant : Nous assistons la naissance d’un enfant dot d’une technologie entirement nouvelle, et nous voyons dj les loups-garous commencer tourner en rond. Snowden s’est dit proccup par le fait que les efforts de rglementation pourraient touffer le potentiel de l’IA, ajoutant : La panique lie la scurit de l’IA en gnral est quelque chose qui me pose problme.

La croissance rapide et l’norme potentiel de l’IA ont suscit des inquitudes quant la scurit de cette technologie. L’anne dernire, le milliardaire Elon Musk, investisseur de la premire heure dans la socit OpenAI, productrice de ChatGPT, l’a qualifie de menace existentielle pour l’humanit. Cette semaine, un groupe d’anciens et d’actuels employs d’OpenAI a publi une lettre ouverte dans laquelle ils avertissent que les entreprises d’IA pionnires ne sont pas suffisamment surveilles par les gouvernements et qu’elles posent de graves risques pour l’humanit.

Sources : SB 1047, Yoshua Bengio, Dan Hendrycks

Et vous ?

Quels sont les avantages et les inconvnients de la rglementation de lIA ? Pensez aux effets positifs et ngatifs de la loi sur linnovation, la scurit et la protection du public.

Quelles sont les limites de la dfinition des dommages critiques dans le projet de loi ? Explorez si cette dfinition est suffisamment large pour couvrir tous les scnarios possibles ou si elle pourrait exclure certains risques.

Comment pouvons-nous quilibrer la scurit et linnovation dans le domaine de lIA ? Partagez vos ides sur la manire dont nous pouvons protger la socit tout en favorisant le dveloppement technologique.

Quelles autres mesures pourraient tre prises pour prvenir les catastrophes lies lIA ? Rflchissez aux solutions alternatives ou complmentaires pour garantir la scurit tout en encourageant lexploration de lIA.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.