Microsoft a demand au Congrs de crer une loi sur la fraude et d’autres mesures qui permettraient aux forces de l’ordre de rprimer les deepfakes dans le domaine de l’IA.
Les deepfakes taient l’origine des mdias synthtiques qui avaient t manipuls numriquement pour remplacer de manire convaincante la ressemblance d’une personne par celle d’une autre. Le terme, invent en 2017 par un utilisateur de Reddit, a t largi pour couvrir toutes les vidos, images ou sons fabriqus avec une intelligence artificielle pour paratre rels, par exemple des images ralistes de personnes qui n’existent pas.
Le prsident de la socit, Brad Smith, a dclar que les forces de l’ordre devraient disposer d’un cadre juridique autonome pour inculper les auteurs de fraudes gnres par l’IA. Il a galement appel une mise jour des lois couvrant les images d’abus sexuels d’enfants et les images non consensuelles produites par l’IA.
Le chef de l’excutif a galement demand au Congrs d’exiger des outils de provenance qui tiquettent le contenu produit par l’IA. Cela aiderait les gens comprendre si le contenu est rel ou non, a dclar M. Smith.
Il a fait remarquer que ces concepts n’taient pas vraiment nouveaux et que des lois taient dj en vigueur ou en cours d’laboration au niveau des tats et au niveau fdral, comme la loi sur l’IA du Colorado (qui exige d’informer les utilisateurs qu’ils interagissent avec l’IA) et la loi sur la recherche, l’innovation et la responsabilit en matire d’intelligence artificielle propose par le Snat des tats-Unis. D’autres projets de loi, comme l’Intelligence Authorization Act du Snat, rendraient illgale la suppression des donnes de provenance du matriel d’IA.
Des tats comme la Californie, le Dakota du Sud et Washington ont adopt ou sont sur le point d’adopter des lois anti-CSAM qui tiennent compte de l’IA. Le Snat a galement propos une loi pour lutter contre la dsinformation lectorale, la Protect Elections from Deceptive AI Act.
M. Smith a fait valoir que les gouvernements risquaient d’tre trop lents pour faire face la vague de fraudes et de manipulations lies l’IA. Microsoft n’a pas toutes les rponses, a-t-il ajout, mais elle peut contribuer l’action et l’acclrer .
Le leader de la technologie est conscient des dfis potentiels et a dclar qu’une approche de l’ensemble de la socit tait ncessaire pour apporter les changements proposs. Et s’il souhaite que Microsoft et d’autres entreprises industrielles s’impliquent, il estime qu’elles doivent faire preuve d’humilit et prendre en compte les ides des autres participants.
Les recommandations de Microsoft ne changeront pas ncessairement l’lan politique en faveur de la lutte contre les deepfakes d’IA. Cependant, elles exposent la position de l’entreprise et font pression sur les autres gants de la technologie pour qu’ils suivent le mouvement, qu’il s’agisse d’allis directs comme OpenAI ou de concurrents comme Apple et Google.
Dans une lettre ouverte, Brad Smith, prsident de Microsoft, s’est exprim concernant la protection du public contre les contenus abusifs gnrs par l’IA :
Les deepfakes gnrs par l’IA sont ralistes, faciles raliser pour presque tout le monde et de plus en plus utiliss des fins de fraude, d’abus et de manipulation – en particulier pour cibler les enfants et les personnes ges. Alors que le secteur technologique et les groupes but non lucratif ont rcemment pris des mesures pour s’attaquer ce problme, il est devenu vident que les lois devront galement voluer pour lutter contre la fraude par deepfake. En bref, de nouvelles lois sont ncessaires pour empcher les mauvais acteurs d’utiliser des deepfakes pour escroquer les personnes ges ou abuser des enfants.
Alors que l’accent a t mis, juste titre, sur les deepfakes utiliss dans l’ingrence lectorale, le rle gnral qu’ils jouent dans ces autres types de crimes et d’abus doit faire l’objet d’une attention gale. Heureusement, les membres du Congrs ont propos une srie de lois qui contribueraient grandement rsoudre le problme, l’administration se concentre sur le problme, des groupes tels que l’AARP et le NCMEC sont profondment impliqus dans l’laboration du dbat, et l’industrie a travaill ensemble et a construit une base solide dans des domaines adjacents qui peuvent tre appliqus dans le prsent cas.
L’une des choses les plus importantes que les tats-Unis puissent faire est d’adopter une loi complte sur la fraude par deepfake afin d’empcher les cybercriminels d’utiliser cette technologie pour voler les Amricains de tous les jours.
Microsoft ne dispose pas de toutes les solutions ni de solutions parfaites, mais elle souhaite contribuer l’action et l’acclrer. C’est pourquoi Microsoft a publi un livre blanc de 42 pages sur ce qui est la base de la comprhension du dfi ainsi qu’un ensemble complet d’ides comprenant des approbations pour le travail acharn et les politiques d’autres personnes.
Comme le suggre le titre du livre Tools and Weapons cocrit par Brad Smith en 2019, l’innovation technologique peut servir la fois d’outil d’avancement socital et d’arme puissante. Dans le paysage numrique actuel qui volue rapidement, l’essor de l’intelligence artificielle (IA) prsente la fois des opportunits sans prcdent et des dfis importants. L’IA transforme les petites entreprises, l’ducation et la recherche scientifique ; elle aide les mdecins et les chercheurs mdicaux diagnostiquer et dcouvrir des remdes aux maladies ; et elle renforce la capacit des crateurs exprimer de nouvelles ides. Cependant, cette mme technologie produit galement une explosion de contenus abusifs gnrs par l’IA, ou contenus synthtiques abusifs.
Cinq ans plus tard, nous nous trouvons un moment de l’histoire o toute personne ayant accs l’internet peut utiliser des outils d’IA pour crer un mdia synthtique trs raliste qui peut tre utilis pour tromper : un clone vocal d’un membre de la famille, une image truque d’un candidat politique ou mme un document gouvernemental falsifi. L’IA a rendu la manipulation des mdias beaucoup plus facile, plus rapide, plus accessible et ncessitant peu de comptences. Aussi rapidement que la technologie de l’IA est devenue un outil, elle est devenue une arme.
l’heure actuelle, le gouvernement amricain a rcemment annonc qu’il tait parvenu interrompre une opration de dsinformation finance par un tat-nation et base sur l’IA. Le directeur du FBI, Christopher Wray, a dclar : La Russie avait l’intention d’utiliser cette ferme de robots pour diffuser de la dsinformation trangre gnre par l’IA, en tendant leur travail avec l’aide de l’IA pour saper nos partenaires en Ukraine et influencer les rcits gopolitiques favorables au gouvernement russe . S’il convient de fliciter les services rpressifs amricains d’avoir collabor avec une plateforme technologique pour mener bien cette opration, il faut galement reconnatre que ce type de travail ne fait que commencer.
L’objectif de ce livre blanc est d’encourager les dcideurs politiques, les leaders de la socit civile et l’industrie technologique agir plus rapidement contre les contenus abusifs gnrs par l’IA. Alors que nous naviguons sur ce terrain complexe, il est impratif que les secteurs public et priv s’unissent pour s’attaquer de front ce problme. Les gouvernements jouent un rle crucial dans la mise en place de cadres rglementaires et de politiques qui favorisent le dveloppement et l’utilisation responsables de l’IA. Partout dans le monde, les gouvernements prennent des mesures pour amliorer la scurit en ligne et lutter contre les contenus illgaux et prjudiciables.
Le secteur priv a la responsabilit d’innover et de mettre en uvre des mesures de protection qui empchent l’utilisation abusive de l’IA. Les entreprises technologiques doivent donner la priorit aux considrations thiques dans leurs processus de recherche et de dveloppement en matire d’IA. En investissant dans des techniques avances d’analyse, de divulgation et d’attnuation, le secteur priv peut jouer un rle central dans la rduction de la cration et de la diffusion de contenus nuisibles gnrs par l’IA, maintenant ainsi la confiance dans l’cosystme de l’information.
La socit civile joue un rle important en veillant ce que la rglementation gouvernementale et les actions volontaires de l’industrie respectent les droits de l’homme fondamentaux, notamment la libert d’expression et la protection de la vie prive. En encourageant la transparence et la responsabilit, il est possible de renforcer la confiance du public dans les technologies de l’IA.
Microsoft a identifi trois objectifs spcifiques : 1) illustrer et analyser les prjudices causs par les contenus abusifs gnrs par l’IA, 2) expliquer l’approche de Microsoft et 3) proposer des recommandations politiques pour commencer lutter contre ces problmes. En fin de compte, pour relever les dfis poss par les contenus abusifs gnrs par l’IA, il faut un front uni. En tirant parti des forces et de l’expertise des secteurs public, priv et des ONG, il est possible de crer un environnement numrique plus sr et plus fiable pour tous. Ensemble, il est possible de librer le pouvoir de l’IA pour le bien, tout en se protgeant de ses dangers potentiels.
La responsabilit de Microsoft dans la lutte contre les contenus abusifs gnrs par l’IA
En dbut d’anne, Microsoft a dfini une approche globale pour lutter contre les contenus abusifs gnrs par l’IA et protger les personnes et les communauts, en s’appuyant sur six domaines d’action :
- Une architecture de scurit solide.
- Une provenance durable des mdias et filigrane.
- La protection de ses services contre les contenus et les comportements abusifs.
- Une collaboration solide entre les entreprises, les gouvernements et la socit civile.
- Une lgislation modernise pour protger les personnes contre l’utilisation abusive des technologies.
- Une sensibilisation et une ducation du public.
Au cur de ces six points se trouve la responsabilit de Microsoft de contribuer lutter contre l’utilisation abusive de la technologie. Microsoft estime qu’il est impratif que le secteur technologique continue prendre des mesures proactives pour lutter contre les prjudices constats sur l’ensemble des services et des plates-formes. Microsoft a pris des mesures concrtes, notamment :
- Mise en place d’une architecture de scurit comprenant une analyse de l’quipe rouge, des classificateurs premptifs, le blocage des invites abusives, des tests automatiss et l’interdiction rapide des utilisateurs qui abusent du systme.
- Attacher automatiquement des mtadonnes de provenance aux images gnres avec le modle DALL-E 3 d’OpenAI dans Azure OpenAI Service, Microsoft Designer et Microsoft Paint.
- Dveloppement de normes pour la provenance et l’authentification des contenus par l’intermdiaire de la Coalition for Content Provenance and Authenticity (C2PA) et mise en uvre de la norme C2PA afin que les contenus intgrant la technologie soient automatiquement tiquets sur LinkedIn.
- Prise de mesures continues pour protger les utilisateurs contre les prjudices en ligne, notamment en rejoignant le programme Lantern de la Tech Coalition et en largissant la disponibilit de PhotoDNA.
- Lancement de nouveaux outils de dtection comme Azure Operator Call Protection pour les clients de Microsoft afin de dtecter les escroqueries tlphoniques potentielles l’aide de l’IA.
- Excuter les engagements pris par Microsoft dans le cadre du nouvel accord technologique pour lutter contre l’utilisation trompeuse de l’IA dans les lections.
Protger les Amricains grce de nouvelles mesures lgislatives et politiques
En fvrier dernier, Microsoft et LinkedIn ont rejoint des dizaines d’autres entreprises technologiques pour lancer le Tech Accord to Combat Deceptive Use of AI in 2024 Elections lors de la Confrence sur la scurit de Munich. L’accord appelle l’action sur trois piliers cls que Microsoft a utiliss pour inspirer le travail supplmentaire trouv dans ce livre blanc : s’attaquer la cration de deepfakes, dtecter et rpondre aux deepfakes, et promouvoir la transparence et la rsilience.
Outre la lutte contre les deepfakes d’IA dans le cadre des lections, il est important que les lgislateurs et les dcideurs politiques prennent des mesures pour dvelopper nos capacits collectives (1) promouvoir l’authenticit du contenu, (2) dtecter et rpondre aux deepfakes abusifs, et (3) donner au public les outils pour s’informer sur les mfaits de l’IA de synthse. Microsoft a formul de nouvelles recommandations l’intention des dcideurs politiques aux tats-Unis. Tout en rflchissant ces ides complexes, il convient de ne pas oublier d’envisager ce travail en termes simples. Ces recommandations visent :
- Protger les lections.
- Protger les personnes ges et les consommateurs contre la fraude en ligne.
- Protger les femmes et les enfants de l’exploitation en ligne.
Dans ce contexte, il convient de mentionner trois ides qui pourraient avoir un impact considrable dans la lutte contre les contenus trompeurs et abusifs gnrs par l’IA.
- Premirement, le Congrs devrait promulguer une nouvelle loi fdrale sur la fraude de type « deepfake ». Il convient de donner aux responsables de l’application des lois, y compris aux procureurs gnraux des tats, un cadre juridique autonome leur permettant de poursuivre les fraudes et les escroqueries gnres par l’IA, dont la vitesse et la complexit ne cessent de crotre.
- Deuximement, le Congrs devrait exiger des fournisseurs de systmes d’IA qu’ils utilisent des outils de provenance de pointe pour tiqueter le contenu synthtique. Cela est essentiel pour instaurer la confiance dans l’cosystme de l’information et aidera le public mieux comprendre si le contenu est gnr par l’IA ou manipul.
- Troisimement, il est indispensable de veiller ce que les lois fdrales et nationales relatives l’exploitation et aux abus sexuels concernant des enfants et l’imagerie intime non consensuelle soient mises jour pour inclure les contenus gnrs par l’IA. Des sanctions pour la cration et la distribution de CSAM et de NCII (qu’ils soient synthtiques ou non) relvent du bon sens et sont absolument ncessaires si l’on veut attnuer le flau des mauvais acteurs qui utilisent des outils d’IA des fins d’exploitation sexuelle, en particulier lorsque les victimes sont souvent des femmes et des enfants.
Ces ides ne sont pas ncessairement nouvelles. La bonne nouvelle, c’est que certaines de ces ides, sous une forme ou une autre, commencent dj prendre racine au Congrs et dans les assembles lgislatives des tats. Microsoft met l’accent sur des textes lgislatifs spcifiques qui correspondent ses recommandations dans le prsent document, et encourage les lus des tats et du gouvernement fdral les prendre rapidement en considration.
Microsoft propose ces recommandations pour contribuer au dialogue indispensable sur les effets nfastes de l’IA sur les mdias synthtiques. La mise en uvre de l’une ou l’autre de ces propositions ncessitera fondamentalement une approche de l’ensemble de la socit. S’il est impratif que l’industrie technologique ait un sige la table, elle doit le faire avec humilit et en privilgiant l’action. Microsoft invite les parties prenantes de l’cosystme numrique proposer d’autres ides pour lutter contre les mfaits des contenus synthtiques. En fin de compte, le danger n’est pas que nous allions trop vite, mais que nous allions trop lentement ou que nous n’allions pas du tout.
Source : « Protecting the public from abusive AI-generated content » (Livre blanc de Microsoft)
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de Microsoft crdible ou pertinente ?
Voir aussi :