La NSA, le FBI et la CISA publient une fiche d’information sur la cyberscurit concernant les menaces lies aux Deepfake

LinkedIn est la marque la plus usurpe par les cybercriminels et reprsente 52 % de toutes les attaques de phishing mondiales Il s'agit d'une hausse de 44 % par rapport au trimestre prcdent



La National Security Agency (NSA), le Federal Bureau of Investigation (FBI) et la Cybersecurity and Infrastructure Security Agency (CISA) ont publi aujourd’hui une fiche d’information sur la cyberscurit, intitule Contextualizing Deepfake Threats to Organizations, qui donne un aperu des menaces, des techniques et des tendances lies aux mdias synthtiques. Les menaces lies aux mdias synthtiques, tels que les deepfakes, ont augment de faon exponentielle, ce qui reprsente un dfi croissant pour les utilisateurs de technologies et de communications modernes, notamment les systmes de scurit nationale (NSS), le ministre de la dfense (DoD), la base industrielle de dfense (DIB) et les propritaires et exploitants d’infrastructures critiques nationales.

Entre 2021 et 2022, les agences du gouvernement amricain ont collabor pour tablir un ensemble de meilleures pratiques utilisables pour se prparer et rpondre la menace croissante. Les proccupations du public concernant les mdias synthtiques comprennent les oprations de dsinformation, conues pour influencer le public et diffuser de fausses informations sur des questions politiques, sociales, militaires ou conomiques afin de semer la confusion, l’agitation et l’incertitude.

Rsum

Les menaces lies aux mdias synthtiques, tels que les « « « , reprsentent un dfi croissant pour tous les utilisateurs des technologies et des communications modernes, y compris les systmes de scurit nationale (NSS), le ministre de la dfense (DoD), la base industrielle de dfense (DIB) et les proprita;lres et exploitants d’infrastructures critiques nationales. Comme c’est le cas pour de nombreuses technologies, les techniques de mdias synthtiques peuvent tre utilises des fins positives ou malveillantes. Bien qu’il y ait peu d’indications d’une utilisation significative de ces techniques par des acteurs malveillants parrains par un tat, la disponibilit et l’efficacit croissantes des techniques de mdias synthtiques accessibles des cyberacteurs malveillants moins comptents indiquent que ces types de techniques vont probablement augmenter en frquence et en sophistication.

Les menaces lies aux mdias synthtiques s’tendent aux technologies associes l’utilisation de textes, de vidos, de sons et d’images, qui sont utiliss diverses fins en ligne et dans le cadre de communications de tous types. Les « deepfakes » sont un type de mdia synthtique particulirement inquitant qui utilise l’intelligence artificielle/l’apprentissage machine (IA/ML) pour crer des mdias crdibles et trs ralistes. [Les menaces les plus importantes lies l’utilisation abusive de mdias synthtiques comprennent des techniques qui menacent la marque d’une organisation, usurpent l’identit de dirigeants et d’agents financiers, et utilisent des communications frauduleuses pour permettre l’accs aux rseaux, aux communications et aux informations sensibles d’une organisation.

Les organisations peuvent prendre diverses mesures pour identifier les menaces de type « deepfake« , s’en dfendre et y rpondre. Elles devraient envisager de mettre en uvre un certain nombre de technologies pour dtecter les deepfakes et dterminer la provenance des mdias, y compris des capacits de vrification en temps rel, des techniques de dtection passive et la protection des agents hautement prioritaires et de leurs communications[2]. [Les organisations peuvent galement prendre des mesures pour minimiser l’impact des techniques malveillantes de « deepfake », notamment le partage d’informations, la planification et la rptition des rponses aux tentatives d’exploitation, et la formation du personnel.

En particulier, le phishing l’aide de deepfakes sera un dfi encore plus difficile relever qu’il ne l’est aujourd’hui, et les organisations devraient se prparer de manire proactive l’identifier et le contrer. Plusieurs consortiums publics et privs offrent galement aux organisations la possibilit de s’impliquer dans le renforcement de la rsilience face aux menaces des deepfakes, notamment la Coalition for Content Provenance and Authenticity et le Project Origin.

Cette fiche d’information sur la cyberscurit, rdige par la National Security Agency (NSA), le Federal Bureau of Investigation (FBI) et la Cybersecurity and Infrastructure Security Agency (CISA), donne un aperu des menaces, des techniques et des tendances lies aux mdias synthtiques. Il propose galement des recommandations aux professionnels de la scurit qui s’efforcent de protger les organisations contre ces menaces en constante volution, en les conseillant sur les stratgies de dfense et d’attnuation.

Menaces lies aux mdias synthtiques

Les outils et les techniques qui peuvent tre utiliss pour manipuler des supports multimdias authentiques existent depuis des dcennies ; cependant, l’ampleur de l’utilisation de la manipulation des mdias s’est considrablement accrue mesure que la complexit de l’exploitation des supports manipuls a diminu. La fabrication d’un faux sophistiqu l’aide d’un logiciel spcialis pouvait auparavant prendre des jours ou des semaines un professionnel, mais aujourd’hui, ces faux peuvent tre produits en une fraction du temps avec une expertise technique limite, voire inexistante. Cela est d en grande partie aux progrs de la puissance de calcul et de l’apprentissage profond, qui rendent non seulement plus facile la cration de faux multimdias, mais aussi moins coteuse leur production en masse. En outre, le march est aujourd’hui inond d’outils gratuits et facilement accessibles (dont certains sont aliments par des algorithmes d’apprentissage profond) qui rendent la cration ou la manipulation de contenus multimdias essentiellement  » plug-and-play « . En consquence, ces techniques accessibles au public ont pris de la valeur et sont devenues des outils largement disponibles pour les adversaires de tous types, permettant la fraude et la dsinformation d’exploiter les personnes et les organisations cibles. La dmocratisation de ces outils figure sur la liste des principaux risques pour 2023.

Outre les implications videntes pour la dsinformation et la propagande en priode de conflit, les dfis de scurit nationale associs aux deepfakes se manifestent par des menaces pour le gouvernement amricain, le NSS, la DIB, les organisations d’infrastructures critiques et d’autres. Les organisations et leurs employs peuvent tre vulnrables aux techniques et au savoir-faire des deepfakes, qui peuvent inclure de faux comptes en ligne utiliss dans des tentatives d’ingnierie sociale, des messages textuels et vocaux frauduleux utiliss pour viter les dfenses techniques, des vidos truques utilises pour diffuser de la dsinformation, et d’autres techniques. De nombreuses organisations sont des cibles attrayantes pour les acteurs avancs et les criminels intresss par l’usurpation de l’identit d’un dirigeant, la fraude financire et l’accs illgitime aux communications et oprations internes.

Dfinition du problme

Plusieurs termes sont utiliss pour dcrire les mdias gnrs et/ou manipuls de manire synthtique. Parmi les plus courants, on peut citer

Falsifications superficielles ou bon march : Les supports multimdias qui ont t manipuls l’aide de techniques qui ne font pas appel l’apprentissage automatique/apprentissage en profondeur et qui, dans de nombreux cas, peuvent tre aussi efficaces que les techniques les plus sophistiques, sont souvent appels « faux superficiels » ou « faux bon march« . Ces faux sont souvent gnrs par la manipulation d’un message original vhicul dans un mdia rel.

Voici quelques exemples explicites :

  • Le copier-coller slectif du contenu d’une scne originale afin de supprimer un objet dans une image et de modifier ainsi l’histoire. Il existe de nombreux exemples de ce type dans l’histoire, notamment lorsque Josef Staline a supprim un individu d’une image aprs qu’ils soient devenus ennemis.
  • Le ralentissement d’une vido par l’ajout d’images rptes pour donner l’impression qu’une personne est en tat d’brit.
  • La combinaison de clips audio provenant d’une source diffrente et le remplacement de l’audio sur une vido pour modifier l’histoire.
  • L’utilisation d’un faux texte pour faire avancer un rcit et provoquer des pertes financires et d’autres consquences.

Deepfakes : Les multimdias qui ont t crs (entirement synthtiques) ou dits (partiellement synthtiques) l’aide d’une forme d’apprentissage automatique/profond (intelligence artificielle) sont appels « deepfakes« .

Voici quelques exemples explicites :

  • LinkedIn a connu une augmentation considrable des images de deepfake pour les photos de profil en 2022.
  • Une scne gnre par l’IA qui est le produit d’une hallucination de l’IA – des informations inventes qui peuvent sembler plausibles mais qui ne sont pas vraies – qui reprsente une explosion prs du Pentagone a t partage sur l’internet en mai 2023, provoquant une confusion gnrale et des turbulences sur le march boursier.
  • Une vido deepfake a montr le prsident ukrainien Volodomyr Zelenskyy disant son pays de se rendre la Russie. Plus rcemment, plusieurs chanes de tlvision et stations de radio russes ont t pirates et une suppose deepfake vido du prsident russe Vladimir Poutine a t diffuse, affirmant qu’il promulguait la loi martiale en raison de l’invasion de la Russie par les Ukrainiens.
  • Un autre exemple de technologie dveloppe dans le domaine de la vido est celui des modles de diffusion texte-vido, qui sont des vidos entirement synthtiques dveloppes par l’IA.
  • En 2019, un faux audio a t utilis pour voler 243 000 dollars une entreprise britannique et, plus rcemment, on a constat une augmentation massive des escroqueries personnalises l’IA, compte tenu de la publication de modles de clonage de voix sophistiqus et hautement entrans l’IA.
  • Les grands modles de langage (LLM), librement accessibles, sont dsormais utiliss pour gnrer le texte des courriels d’hameonnage.

IA gnrative : en 2023, l’IA gnrative gagnera en popularit pour de nombreuses capacits de production de mdias synthtiques. L’IA gnrative (techniques d’apprentissage automatique), telle que les rseaux adversaires gnratifs, les modles de diffusion et les grands modles de langage (ou une combinaison de ces derniers), sont les machines qui permettent la production de multimdias synthtiques trs ralistes bass sur des ensembles de donnes beaucoup plus importants.

Imagerie gnre par ordinateur (CGI) : L’imagerie gnre par ordinateur (CGI) est l’utilisation de l’infographie pour crer ou amliorer les mdias visuels (images et vidos). Traditionnellement, ces mthodes ont constitu l’effet visuel de rfrence pour la plupart des grands films, mais maintenant que les techniques d’IA gnrative s’amliorent, elles sont de plus en plus nombreuses.

Mais maintenant que les techniques d’IA gnrative s’amliorent et deviennent moins chres, la fusion de ces deux technologies est utilise pour produire des faux encore plus convaincants.

Dtection et authentification

Depuis plusieurs annes, des organisations publiques et prives se disent proccupes par les manipulations multimdias et dveloppent des moyens de dtection et d’identification des contre-mesures. De nombreux partenariats publics et privs ont vu le jour depuis, se concentrant sur les efforts de coopration pour dtecter ces manipulations et vrifier/authentifier le multimdia. Il existe de nombreuses diffrences entre les efforts de dtection et d’authentification, car leurs objectifs sont diffrents. La plus importante d’entre elles est que les mthodes de dtection sont souvent des techniques judiciaires passives, alors que les mthodes d’authentification sont des techniques judiciaires actives qui sont dlibrment intgres au moment de la capture ou de l’dition du mdia en question.

Les efforts de dtection se concentrent gnralement sur le dveloppement de mthodes qui recherchent des preuves de manipulation et prsentent ces preuves sous la forme d’un rsultat numrique ou d’une visualisation afin d’alerter un analyste sur le fait que le mdia ncessite une analyse plus approfondie. Ces mthodes sont labores en partant du principe que les modifications apportes aux supports originaux ou aux supports entirement synthtiques contiennent des traces statistiquement significatives qui peuvent tre trouves. Cette forme de dtection est un jeu du chat et de la souris ; lorsque des mthodes de dtection sont mises au point et rendues publiques, la communaut de la gnration ragit souvent rapidement pour les contrer. Toutefois, en attendant l’adoption universelle de normes d’authentification, ces mthodes sont ncessaires pour soutenir l’analyse mdico-lgale.

Les mthodes d’authentification sont conues pour tre intgres au moment de la capture/cration ou de l’dition afin de rendre transparente la provenance du mdia. Parmi les exemples, on peut citer le filigrane numrique qui peut tre utilis dans les mdias gnrs synthtiquement, les signaux actifs lors de la capture en temps rel pour vrifier l’authenticit et le hachage cryptographique des actifs sur un appareil.

Parmi les efforts en cours dans le domaine de la dtection et de l’authentification, on peut citer plusieurs initiatives de collaboration publiques/prives, telles que :

  • Le programme DARPA Semantic Forensics dveloppe actuellement des capacits smantiques avances pour la criminalistique et l’authentification des mdias. Les participants au programme sont NVIDIA, PAR Government Systems, SRI International et plusieurs instituts de recherche.
  • Le laboratoire de recherche de l’arme de l’air (AFRL) a rcemment attribu un contrat la petite entreprise DeepMedia pour le dveloppement de capacits de dtection des faux contenus (deepfake).
  • Plusieurs entreprises, dont Microsoft, Intel et Google, ont mis au point des outils de dtection de deepfake.
    • Avant les lections de 2020, Microsoft a introduit le Microsoft Video Authenticator et, en 2023, a dploy l’outil « About this Image » ( propos de cette image) pour obtenir plus de contexte sur l’authenticit des images qu’ils peuvent recevoir.
    • Intel a introduit fin 2022 un dtecteur de faux en profondeur en temps rel, appel FakeCatcher, qui dtecte les fausses vidos.
    • Google, en collaboration avec des chercheurs universitaires en Europe, a fourni un vaste ensemble de donnes de deepfakes visuels au FaceForensics Benchmark en 2019.
  • Adobe a lanc la Content Authenticity Initiative (CAI) en 2019 pour pousser la provenance des contenus numriques. La CAI compte plusieurs centaines de membres qui cherchent dvelopper des normes d’attribution de contenu ouvertes. [La CAI a cr la Coalition for Content Providence and Authenticity (C2PA). « La C2PA unifie les efforts de l’Initiative pour l’authenticit du contenu (CAI), dirige par Adobe, qui se concentre sur les systmes permettant de fournir un contexte et un historique aux mdias numriques, et du Projet Origin, une initiative dirige par Microsoft et la BBC qui s’attaque la dsinformation dans l’cosystme de l’information numrique ».

L’impact des deepfakes sur les organisations

L’inquitude du public l’gard des mdias synthtiques porte notamment sur leur utilisation dans le cadre d’oprations de dsinformation, conues pour influencer le public et diffuser de fausses informations sur des questions politiques, sociales, militaires ou conomiques afin de semer la confusion, l’agitation et l’incertitude. Toutefois, les menaces lies aux mdias synthtiques auxquelles les organisations sont le plus souvent confrontes sont des activits susceptibles de porter atteinte la marque, la situation financire, la scurit ou l’intgrit de l’organisation elle-mme. Les menaces mdiatiques synthtiques les plus importantes pour le DoD, le NSS, le DIB et les organisations d’infrastructures critiques, sur la base de l’impact et du risque potentiels, sont notamment les suivantes :

  • Usurpation de l’identit d’un dirigeant pour manipuler la marque : Des acteurs malveillants peuvent utiliser des « deepfakes », c’est–dire des fichiers audio et vido manipuls, pour tenter d’usurper l’identit des dirigeants d’une organisation et d’autres membres du personnel de haut rang. Les acteurs malveillants peuvent utiliser des imitations audio et vido convaincantes de dirigeants cls pour nuire la rputation et la valeur de la marque d’une organisation, par exemple en diffusant rapidement un deepfake convaincant sur les plateformes de mdias sociaux avant qu’il ne puisse tre arrt ou contest. Des oprations de manipulation des mdias ont t observes, ciblant des personnalits politiques de premier plan, comme Volodymr Zelenskyy (Ukraine), afin de rpandre la dsinformation et la confusion. Cette technique peut avoir un impact important, en particulier pour les marques internationales dont le cours des actions et la rputation gnrale peuvent tre vulnrables aux campagnes de dsinformation. Compte tenu de son impact important, ce type de « deepfake » est un sujet de proccupation majeur pour de nombreux PDG et responsables gouvernementaux.
  • Usurpation d’identit des fins financires : Les acteurs malveillants, dont beaucoup sont probablement des cybercriminels, utilisent souvent plusieurs types de mdias manipuls dans le cadre de campagnes d’ingnierie sociale des fins financires. Il peut s’agir d’usurper l’identit de dirigeants ou d’agents financiers importants et d’oprer sur divers supports en utilisant des sons, des vidos ou des textes manipuls, afin d’autoriser illgitimement le versement de fonds sur des comptes appartenant l’acteur malveillant. Les systmes de Business Email Compromise (BEC) font partie de ces types d’ingnierie sociale et cotent aux entreprises des centaines de millions de dollars de pertes. Des techniques similaires peuvent galement tre utilises pour manipuler le commerce ou la vente de crypto-actifs. Ces types de stratagmes sont beaucoup plus courants dans la pratique et plusieurs partenaires ont dclar avoir t cibls par ce type d’oprations.
  • Usurpation d’identit pour obtenir un accs : Les acteurs malveillants peuvent utiliser les mmes types de techniques et de technologies de manipulation des mdias pour accder au personnel, aux oprations et aux informations d’une organisation. Ces techniques peuvent inclure l’utilisation de mdias manipuls lors d’entretiens d’embauche, en particulier pour des emplois distance. En 2022, des acteurs malveillants auraient utilis des sons et des vidos synthtiques lors d’entretiens en ligne, mais le contenu tait souvent dsalign ou non synchronis, ce qui indiquait la nature frauduleuse des appels. Ces tentatives malveillantes ont t rendues possibles par le vol d’informations personnelles identifiables (IPI). [Les compromissions russies peuvent permettre aux acteurs d’obtenir des informations financires, propritaires ou de scurit interne sensibles. Les techniques de manipulation des mdias utilises pour usurper l’identit de clients spcifiques peuvent galement tre utilises pour accder des comptes clients individuels afin d’accder des comptes ou d’autres fins de collecte d’informations.

Tendances mergentes dans le domaine des deepfakes et de l’IA gnrative

Les tendances dynamiques en matire de dveloppement technologique associes la cration de mdias synthtiques continueront faire baisser les cots et les obstacles techniques l’utilisation de cette technologie des fins malveillantes. D’ici 2030, le march de l’IA gnrative devrait dpasser les 100 milliards de dollars, avec un taux de croissance de plus de 35 % par an en moyenne. Toutefois, si les capacits dont disposent les acteurs malveillants vont considrablement augmenter, les technologies et les techniques la disposition des dfenseurs qui cherchent identifier et limiter les deepfakes vont galement s’amliorer de manire substantielle. Un exemple annonc fin 2022, GPTZero, est un programme conu pour identifier les textes gnrs par ordinateur, y compris ChatGPT, LaMDa de Google et d’autres modles d’IA, qui a dj recueilli plus d’un million d’utilisateurs. Toutefois, les dtecteurs de contenu gnr par l’IA peuvent souffrir de faux positifs, c’est–dire qu’ils identifient un contenu crit par un humain comme tant galement gnr par l’IA. On s’attend une escalade technologique dans les technologies et les capacits des mdias synthtiques afin de dtecter les contenus gnrs par l’IA et d’authentifier les contenus lgitimes.

Les principales tendances en matire de gnration de mdias comprennent l’utilisation accrue et l’amlioration des modles multimodaux, tels que la fusion des LLM et des modles de diffusion ; l’amlioration de la capacit transformer une image 2D en 3D pour permettre la gnration raliste de vidos partir d’une seule image ; des mthodes plus rapides et ajustables pour la gnration de vidos modifies en temps rel ; et des modles qui ncessitent moins de donnes d’entre pour personnaliser les rsultats, tels que l’audio synthtique qui capture les caractristiques d’un individu avec seulement quelques secondes de donnes de rfrence.Toutes ces tendances indiquent qu’il existe des moyens plus efficaces, plus rapides et moins coteux de gnrer des contenus falsifis.

Les principales tendances en matire de dtection et d’authentification sont l’ducation, l’affinement de la dtection et une pression accrue de la part de la communaut pour utiliser des techniques d’authentification pour les mdias. terme, ces tendances pourraient dboucher sur des politiques qui ncessiteront certains changements. Pour l’instant, des efforts tels que les initiatives publiques/prives de dtection et d’authentification mentionnes dans le prsent rapport et les considrations thiques pralables la diffusion de modles aideront les organisations prendre des mesures proactives en vue d’une plus grande transparence de la provenance des contenus.

Recommandations pour rsister aux deepfakes

Les organisations peuvent prendre diverses mesures pour se prparer identifier les menaces lies aux deepfakes, s’en dfendre et y rpondre. Des experts en mdias synthtiques de plusieurs agences du

ont collabor entre 2021 et 2022 pour examiner ces menaces et tablir une liste recommande de meilleures pratiques employer pour se prparer et ragir aux deepfakes. [Une autre bonne rfrence pour les meilleures pratiques et la comprhension des politiques qui peuvent tre mises en uvre du point de vue de l’entreprise se trouve sur le blog Blue Sky de Columbia Law. Plusieurs de ces recommandations sont dcrites ci-dessous et examines plus en dtail.

1. Slectionner et mettre en uvre des technologies permettant de dtecter les deepfakes et de dmontrer la provenance des mdias :

Capacits et procdures de vrification en temps rel : Les organisations doivent mettre en uvre une vrification de l’identit capable de fonctionner pendant les communications en temps rel. La vrification de l’identit pour les communications en temps rel ncessitera dsormais des tests de prsence, compte tenu des amliorations rapides de l’IA gnrative et du rendu en temps rel. L’authentification multifactorielle (AMF) obligatoire, utilisant un mot de passe ou un code PIN unique ou gnr une seule fois, des dtails personnels connus ou des donnes biomtriques, peut garantir que les personnes accdant des canaux de communication ou des activits sensibles sont en mesure de prouver leur identit. Ces tapes de vrification sont particulirement importantes lorsqu’il s’agit de procdures d’excution de transactions financires.

2. Protger les donnes publiques des personnes hautement prioritaires.

Afin de protger les mdias contenant la personne contre l’utilisation ou la raffectation des fins de dsinformation, il convient d’envisager de commencer utiliser des techniques d’authentification active telles que les filigranes et/ou les normes CAI. Il s’agit d’une bonne mesure prventive pour protger les mdias et faire en sorte qu’il soit plus difficile pour un adversaire de prtendre qu’un faux mdia reprsentant la personne dans ces situations contrles est rel. Se prparer minimiser l’impact des « deepfakes » et en tirer parti.

  • Planifier et rpter : Veiller ce que les quipes de scurit de l’organisation disposent de plans pour rpondre diverses techniques de « deepfake ». Ces plans doivent tre hirarchiss en fonction de la probabilit et des vulnrabilits propres chaque organisation et son secteur d’activit. Certaines organisations seront plus sensibles l’usurpation de l’identit d’un dirigeant ou la dsinformation, ce qui peut avoir un impact sur le statut de la marque ou sur les actions en bourse. D’autres organisations qui dpendent de volumes levs de transactions financires virtuelles peuvent tre plus vulnrables la fraude financire.

    Une fois le plan tabli, il convient d’effectuer plusieurs exercices sur table afin de s’entraner et d’analyser l’excution du plan. Ces exercices doivent impliquer les cibles les plus probables des deepfakes et inclure les dirigeants qui peuvent tre des cibles privilgies.

  • Rapport et partage d’expriences : Signaler les dtails des « deepfakes » malveillants aux partenaires appropris du gouvernement amricain, y compris le Centre de collaboration en matire de cyberscurit de la NSA pour le ministre de la dfense et les organisations de la base industrielle de dfense et le FBI (y compris les bureaux locaux ou CyWatch@fbi.gov), afin de faire connatre les techniques et les campagnes malveillantes en vogue.
  • Former le personnel : Chaque organisation doit intgrer dans son programme de formation un aperu des techniques de « deepfake ». Il s’agit notamment de donner un aperu des utilisations potentielles des deepfakes destines nuire la rputation, du ciblage des cadres et des tentatives d’escroquerie des fins financires, ainsi que des mdias manipuls utiliss pour saper des runions d’embauche ou des runions oprationnelles des fins malveillantes. Les employs doivent connatre les procdures standard pour ragir en cas de suspicion de mdias manipuls et comprendre les mcanismes de signalement de cette activit au sein de leur organisation.

    Des ressources de formation spcifiques aux deepfakes sont dj disponibles auprs des sources suivantes : SANS Institute – « Learn a New Survival Skill : Spotting Deepfakes « ; MIT Media Lab – « Detect DeepFakes : Comment contrer les informations cres par l’IA » et MIT Media Literacy ; et Microsoft – « Spot the Deepfake« .

  • Exploiter les partenariats interindustriels : La C2PA est une initiative importante lance en 2021 pour lutter contre la prvalence des informations trompeuses en ligne en laborant des normes techniques pour certifier la provenance des contenus mdiatiques. Les spcifications et les principes visant garantir la provenance des mdias sont disponibles sur le site web de la C2PA. Des informations supplmentaires sur les questions relatives la dsinformation et la provenance du contenu sont disponibles dans le cadre des efforts associs la C2PA sur le site de la CAI et le projet Origin.

    En 2023, la CAI regroupait plus de 1 000 entreprises prives dans les domaines de la technologie, des mdias, des diteurs de presse, des chercheurs et des ONG. La CAI propose plusieurs outils open source gratuits pour mettre en uvre la provenance des mdias, un bulletin d’information rgulier et un canal communautaire sur Discord.

    Le projet Origin, un effort interprofessionnel impliquant Microsoft et plusieurs grands producteurs de mdias, vise tablir de la mme manire une chane de provenance des contenus par le biais de signatures scurises et d’extensions de navigateur web. Des informations techniques sont disponibles sur leur site web l’adresse originproject.info.

  • Comprendre ce que font les entreprises prives pour prserver la provenance des contenus en ligne : Les organisations devraient rechercher activement des partenariats avec les mdias, les mdias sociaux, les rseaux de carrire et les entreprises similaires afin d’en savoir plus sur la manire dont ces entreprises prservent la provenance du contenu en ligne. Ceci est particulirement important si l’on considre la manire dont ces entreprises peuvent travailler l’identification et l’attnuation des dommages causs par les contenus synthtiques, qui peuvent tre utiliss comme moyen d’exploiter les organisations et leurs employs.

Source : CISA

Et vous ?

Quel est votre avis ces recommandations ?

Voir aussi :

Le nombre de contenus deepfake en ligne augmente un rythme annuel de 900 % d’aprs le World Economic Forum

Les dveloppeurs et les responsables de la scurit des applications se tournent vers l’IA gnrative malgr les risques de scurit identifis, selon une tude de Sonatype

FakeCatcher, le dtecteur de « deepfake » d’Intel, a t test sur de vraies et de fausses vidos par la BBC



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.