Des experts en IA et des dirigeants d’entreprises ont sign une lettre ouverte appelant une plus grande rglementation de la cration de « deepfakes » voquant les risques potentiels pour la socit

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Des experts en intelligence artificielle et des dirigeants d’entreprises, dont Yoshua Bengio, l’un des pionniers de cette technologie, ont sign une lettre ouverte appelant une plus grande rglementation de la cration de « deepfakes », en invoquant les risques potentiels pour la socit. La lettre contient des recommandations sur la manire de rglementer les deepfakes.

Aujourd’hui, les « deepfakes » concernent souvent l’imagerie sexuelle, la fraude ou la dsinformation politique. « tant donn que l’IA progresse rapidement et rend la cration de deepfakes beaucoup plus facile, des garde-fous sont ncessaires« , indique le groupe dans la lettre, rdige par Andrew Critch, chercheur en IA l’universit de Berkeley.

Les deepfakes sont des images, des sons et des vidos ralistes mais fabriqus par des algorithmes d’IA, et les progrs rcents de la technologie les rendent de plus en plus impossibles distinguer des contenus crs par des humains.

La lettre, intitule « Disrupting the Deepfake Supply Chain« , contient des recommandations sur la manire de rglementer les deepfakes, notamment la criminalisation totale de la pdopornographie par deepfake, des sanctions pnales pour toute personne crant ou facilitant sciemment la diffusion de deepfakes nuisibles et l’obligation pour les entreprises d’IA d’empcher leurs produits de crer des deepfakes nuisibles.

Plus de 400 personnes issues de diffrents secteurs, notamment du monde universitaire, du spectacle et de la politique, avaient sign la lettre. Parmi les signataires figurent Steven Pinker, professeur de psychologie Harvard, Joy Buolamwini, fondatrice de l’Algorithmic Justice League, deux anciens prsidents estoniens, des chercheurs de Google DeepMind et un chercheur d’OpenAI.

Veiller ce que les systmes d’IA ne nuisent pas la socit est une priorit pour les rgulateurs depuis qu’OpenAI, soutenue par Microsoft, a dvoil ChatGPT fin 2022, qui a sduit les utilisateurs en les faisant participer des conversations semblables celles des humains et en effectuant d’autres tches. De nombreuses personnalits ont mis en garde contre les risques lis l’IA, notamment une lettre signe par Elon Musk l’anne dernire, qui appelait une pause de six mois dans le dveloppement de systmes plus puissants que le modle d’IA GPT-4 d’OpenAI.

Perturber la chane d’approvisionnement de Deepfake

Contexte : De nombreux experts ont prvenu que l’intelligence artificielle (« IA ») pourrait causer des dommages importants l’humanit si elle n’tait pas gre de manire responsable. L’impact de l’IA est considrablement aggrav par sa capacit imiter des tres humains rels. Dans la dclaration ci-dessous, le terme « deepfakes » fait rfrence des voix, des images ou des vidos gnres par l’IA, non consensuelles ou grossirement trompeuses, qu’une personne raisonnable pourrait prendre pour relles. Cela n’inclut pas les lgres modifications d’une image ou d’une voix, ni les divertissements ou satires inoffensifs qui sont facilement reconnus comme tant synthtiques. Aujourd’hui, les deepfakes concernent souvent l’imagerie sexuelle, la fraude ou la dsinformation politique. tant donn que l’IA progresse rapidement et qu’il est beaucoup plus facile de crer des deepfakes, il est ncessaire de mettre en place des mesures de protection pour assurer le fonctionnement et l’intgrit de notre infrastructure numrique.

Dclaration

Les deepfakes constituent une menace croissante pour la socit, et les gouvernements doivent imposer des obligations tout au long de la chane d’approvisionnement pour mettre fin la prolifration des deepfakes. Les nouvelles lois doivent :

  1. Criminaliser totalement la pornographie infantile « deepfake », mme lorsque seuls des enfants fictifs sont reprsents ;
  2. Prvoir des sanctions pnales pour toute personne qui cre ou facilite sciemment la diffusion de « deepfakes » prjudiciables ; et
  3. Exiger des dveloppeurs et distributeurs de logiciels qu’ils empchent leurs produits audio et visuels de crer des deepfakes nuisibles, et qu’ils soient tenus pour responsables si leurs mesures prventives sont trop facilement contournes.

Si elles sont conues judicieusement, ces lois pourraient favoriser l’mergence d’entreprises socialement responsables et ne devraient pas tre excessivement contraignantes.

Source : « Disrupting the Deepfake Supply Chain » (Lettre ouverte)

Et vous ?

Pensez-vous que cette lettre soit crdible ou pertinente ?

Quel est votre avis sur le sujet ?

Voir aussi :

La FTC propose de nouvelles protections pour lutter contre l’usurpation d’identit par l’IA. Elle finalise un rglement interdisant la fraude l’administration et l’usurpation d’identit

La NSA, le FBI et la CISA publient une fiche d’information sur la cyberscurit concernant les menaces lies aux Deepfake

Quelles seront les avances technologiques les plus dangereuses l’avenir ? L’IA figure parmi les rponses les plus courantes, ainsi que les deepfakes et les essaims de drones



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.