Les « deepfakes » constituent la plus grande proccupation en matire d’IA, d’aprs Brad Smith, prsident de Microsoft

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Le prsident de Microsoft, Brad Smith, a dclar que sa plus grande proccupation en matire d’intelligence artificielle est les « deepfakes », des contenus ralistes mais faux.

Lors d’un discours prononc Washington, visant aborder la question de la meilleure manire de rglementer l’intelligence artificielle, qui est passe d’une situation bancale une situation gnralise avec l’arrive du ChatGPT d’OpenAI, Smith a demand que des mesures soient prises pour que les gens sachent quand une photo ou une vido est relle et quand elle est gnre par l’intelligence artificielle, potentiellement des fins malveillantes.

Nous allons devoir nous pencher sur les problmes lis aux contrefaons profondes. Nous allons devoir nous attaquer en particulier ce qui nous proccupe le plus, savoir les oprations de cyberinfluence trangre, le type d’activits dj menes par le gouvernement russe, les Chinois et les Iraniens. Nous devons prendre des mesures pour nous protger contre l’altration de contenus lgitimes dans le but de tromper ou d’escroquer les gens par l’utilisation de l’IA , a-t-il dclar.

Smith a galement appel l’octroi de licences pour les formes les plus critiques d’IA, avec des obligations de protection de la scurit, de la scurit physique, de la cyberscurit et de la scurit nationale . Nous aurons besoin d’une nouvelle gnration de contrles l’exportation, ou du moins d’une volution des contrles l’exportation existants, afin de garantir que ces modles ne sont pas vols ou utiliss d’une manire qui violerait les exigences du pays en matire de contrle des exportations , a-t-il dclar.

Depuis des semaines, les lgislateurs de Washington s’interrogent sur les lois adopter pour contrler l’IA, alors mme que les entreprises, grandes et petites, s’empressent de mettre sur le march une IA de plus en plus polyvalente.

Il y a quelques jours, Sam Altman, PDG d’OpenAI, la startup l’origine de ChatGPT, a dclar un groupe d’experts du Snat, lors de sa premire comparution devant le Congrs, que l’utilisation de l’IA pour interfrer avec l’intgrit des lections tait un sujet de proccupation important , ajoutant qu’elle ncessitait une rglementation. Altman, dont la socit OpenAI est soutenue par Microsoft, a galement appel une coopration mondiale en matire d’IA et des mesures d’incitation pour le respect des rgles de scurit.

Dans son discours et dans un billet de blog publi jeudi, Smith a galement fait valoir que les personnes devaient tre tenues pour responsables de tout problme caus par l’IA et il a exhort les lgislateurs veiller ce que des freins de scurit soient mis sur l’IA utilise pour contrler le rseau lectrique, l’approvisionnement en eau et d’autres infrastructures critiques, afin que les humains restent matres de la situation.

Il a insist sur l’utilisation d’un systme de type « Know Your Customer » pour les dveloppeurs de puissants modles d’IA afin de garder un il sur la manire dont leur technologie est utilise et d’informer le public du contenu cr par l’IA afin qu’il puisse identifier les vidos truques.

Certaines propositions examines au Capitole porteraient sur l’IA susceptible de mettre en danger la vie ou les moyens de subsistance des personnes, par exemple dans les domaines de la mdecine et de la finance. D’autres prconisent des rgles visant garantir que l’IA ne soit pas utilise des fins de discrimination ou de violation des droits civils.

Source : Brad Smith, prsident de Microsoft

Et vous ?

Que pensez-vous des propos de Brad Smith ? Partagez-vous son opinion ?

Voir aussi :

Les effets subtils de la circulation sanguine peuvent tre utiliss pour dtecter un deepfake et le logiciel qui a permis de le crer, selon une tude



Avatarify, un deepfake qui change en temps rel votre visage avec celui d’une clbrit, pendant les appels vido sur Zoom et Skype



Des cybercriminels ont utilis la technologie deepfake pour voler 35 millions de dollars une banque en clonant la voix du directeur



Des chercheurs dveloppent une IA capable de dtecter les vidos deepfake avec une prcision allant jusqu’ 99 % cette mthode dtecte les expressions faciales manipules et les changes d’identit



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.