quarante États américains exigent des mesures immédiates

quarante États américains exigent des mesures immédiates



Les grands acteurs de l’IA vont vite, très vite… trop vite, aux yeux d’une quarantaine d’États américains qui exigent des mesures immdiates contre les risques les plus sérieux que font peser leurs services IA auprès des utilisateurs, en particulier les plus jeunes. OpenAI, Apple, Meta, Microsoft et bien d’autres sont visés.

L’IA est peut-être en passe de tout changer dans nos vies, mais cette technologie n’est pas sans charrier ses propres problèmes bien identifiés. Des problèmes pour lesquels 42 procureurs généraux des États-Unis — l’équivalent américain d’un mélange entre les procureurs de la République et les ministres de la Justice régionaux — exigent des solutions immédiates auprès de 14 des plus grandes entreprises US de l’IA, dont Google, Qpple, Meta, Microsoft, Perplexity, OpenAI, xAI ou encore Anthropic.

Violences, suicides, manipulation

Dans une lettre envoyée cette semaine, ces procureurs généraux s’alarment des cas récents de violences, de suicides et de comportements dangereux dans lesquels des chatbots auraient joué un rôle aggravant. Parmi les situations citées figure la mort d’Allan Brooks, un retraité de 76 ans embarqué dans une relation quasi amoureuse avec un chatbot de Meta : persuadé de rencontrer « en vrai » sa compagne virtuelle, il n’est jamais rentré chez lui.

Autre affaire mentionnée : le suicide d’un adolescent de 16 ans en Californie, après qu’un robot conversationnel a validé et renforcé ses délires paranoïaques. Les autorités évoquent également le cas d’un père de famille de Floride, tué par la police après qu’une IA aurait nourri sa détresse et son impulsivité dans les heures précédant le drame.

Ces épisodes, loin d’être isolés, ont convaincu les procureurs que les modèles actuels peuvent « flatter » leurs utilisateurs au point d’encourager des croyances fausses, des gestes dangereux ou des spirales psychologiques incontrôlées. D’où leur appel à un encadrement beaucoup plus strict — et urgent — de ces outils. Ils veulent également des solutions pour les sorties délirantes des chatbots, lorsque l’IA se présente comme un être humain, exprime des « émotions », renforce des illusions, fournit de faux conseils ou invente des informations potentiellement dangereuses.

Enfin, les représentants alertent sur les comportements extrêmement inquiétants avec les enfants, ce qui inclue entre autres horreurs des tentatives de relations romantiques ou sexuelles simulées, des encouragement à la désobéissance ou au secret vis-à-vis des parents, ou encore des conseils liés au suicide, à la violence ou à la prise de drogues.

Dans la ligne de mire des signataires se trouve un des mantra de la Silicon Valley, « move fast and break things » (« Aller vite, quitte à casser des choses »), sauf que cette fois ce qui casse, ce sont des vies humaines. Les procureurs demandent aux entreprises de mettre en place avant le 16 janvier une longue liste d’obligations, dont l’encadrement des sorties délirantes et sycophantiques des bots, une meilleure protection des enfants, une tansparence beaucoup plus forte et la responsabilisation des dirigeants. Ils veulent aussi que les entreprises puissent retirer un modèle du marché si elles échouent à contrôler les dérives.

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.