La startup Reality Defender dvoile un outil de dtection des vidos deepfakes Alors que l’augmentation des escroqueries par l’IA sur les vidos deepfakes a dj caus des pertes massives

LinkedIn est la marque la plus usurpe par les cybercriminels et reprsente 52 % de toutes les attaques de phishing mondiales Il s'agit d'une hausse de 44 % par rapport au trimestre prcdent



La startup Reality Defender dvoile un outil de dtection des vidos deepfakes en temps rel. L’outil est disponible via un plug-in pour Zoom et peut faire des prdictions actives pour savoir si les autres participants un appel vido sont rels ou s’il s’agit d’imitations alimentes par l’IA. Mme si l’outil est encore en valuation, cela confirme l’inquitude autour des vidos deepfakes. Des rapports confirment que les escroqueries par l’IA sur les vidos deepfakes ont dj caus des pertes massives pour les entreprises et les particuliers.

Diffrents rapports montrent que l’inquitude autour des deepfakes ne cesse de grandir. Un rcent rapport rvle que les deepfakes se classent dsormais au deuxime rang des incidents de cyberscurit les plus courants pour les entreprises britanniques et que plus d’un tiers des organisations en ont fait l’exprience. Les attaquants utilisent la technologie d’IA pour amliorer l’efficacit des attaques et inciter les victimes effectuer des transferts de fonds.

Face cette situation, une startup a dvoil un outil de dtection des vidos deepfakes. Reality Defender est une entreprise qui cre des outils pour lutter contre la dsinformation par l’IA. Christopher Ren, chef de produit chez Reality Defender, a commenc par faire une excellente imitation d’Elon Musk. Lors d’un appel vido, il a utilis une seule photo pour gnrer un deepfake simpliste d’Elon Musk qui se superpose son propre visage.

Cette imitation numrique visait dmontrer comment le nouvel outil de dtection de l’IA de la startup pouvait fonctionner. Alors que Ren se faisait passer pour Musk lors de la conversation vido, des images fixes de l’appel taient activement envoyes au modle personnalis de Reality Defender pour analyse, et le widget de l’entreprise sur l’cran avertissait que c’tait probablement une image gnre par l’IA et non pas le vrai Elon Musk.

Cette dmonstration a mis en vidence le problme trs rel des deepfakes. Les vido deepfakes en temps rel constituent une menace croissante pour les gouvernements, les entreprises et les particuliers. Rcemment, le prsident de la commission des affaires trangres du Snat amricain a pris par erreur un appel vido avec un deepfake. Une socit internationale d’ingnierie a galement t victime d’un deepfake vido au dbut de l’anne 2024.

Ces incidents soulignent le potentiel d’utilisation de cette technologie dans le cadre d’activits frauduleuses. « Ce n’est probablement qu’une question de mois avant que nous n’assistions une explosion des fraudes par deepfake vido et face–face« , dclare Ben Colman, PDG et cofondateur de Reality Defender. Lorsqu’il s’agit d’appels vido, en particulier dans les situations fort enjeu, il ne faut pas se fier ce que l’on voit.

La startup Reality Defender se concentre donc sur le partenariat avec les entreprises et les gouvernements pour les aider contrecarrer les deepfakes aliments par l’IA. Selon Reality Defender, son plan pour le dtecteur en temps rel est de commencer par un plug-in pour Zoom qui peut faire des prdictions actives pour savoir si les autres participants un appel vido sont rels ou s’il s’agit d’imitations alimentes par l’IA. L’entreprise travaille encore l’valuation comparative de l’outil afin de dterminer avec quelle prcision il distingue les vrais participants d’un appel vido des faux.

Dtecter les « deepfakes » en temps rel

Pour l’instant, la nouvelle fonction logicielle ne sera disponible qu’en version bta pour certains clients de la startup. Ce n’est pas la premire fois qu’une entreprise technologique fait part de ses projets pour aider reprer les deepfakes en temps rel.

En 2022, Intel a prsent son FakeCatcher, conu pour analyser les changements dans le flux sanguin d’un visage afin de dterminer si un participant une vido est rel. L’outil d’Intel n’est pas encore accessible au public. Les chercheurs universitaires explorent galement diffrentes approches pour faire face ce type spcifique de menace de « deepfake ».

« Ces systmes sont de plus en plus sophistiqus pour crer des deepfakes. Nous avons maintenant besoin de moins de donnes« , explique Govind Mittal, doctorant en informatique l’universit de New York. « Si j’ai 10 photos de moi sur Instagram, quelqu’un peut les prendre et les utiliser pour crer un deepfake. » Les deepfakes en temps rel ne sont plus rservs aux milliardaires, aux personnalits publiques ou ceux qui sont trs prsents en ligne.

Les recherches de Mittal l’Universit de New York proposent une solution potentielle pour bloquer les robots d’IA dans les appels vido, o les participants devraient passer une sorte de test CAPTCHA vido avant de s’inscrire. Alors que Reality Defender s’efforce d’amliorer la prcision de dtection de ses modles, Ben Colman explique que l’accs davantage de donnes est un dfi majeur relever. Il espre que d’autres partenariats permettront de combler ces lacunes.

Que pouvez-vous faire ds maintenant pour vous protger des escroqueries par appel vido ? Pour viter d’tre victime d’une escroquerie, il est essentiel de ne pas se montrer trop confiant dans sa capacit reprer les faux appels vido. La technologie dans ce domaine continue d’voluer rapidement, et les signes rvlateurs auxquels vous vous fiez aujourd’hui pour reprer les deepfakes de l’IA pourraient ne plus tre aussi fiables avec les futures mises jour des modles sous-jacents.

« Nous ne demandons pas ma mre de 80 ans de signaler un ransomware dans un courriel« , explique Ben Colman. « Parce qu’elle n’est pas experte en informatique. l’avenir, il est possible que l’authentification vido en temps rel, si la dtection par l’IA continue de s’amliorer et devient fiable et prcise, soit aussi vidente que le scanner de logiciels malveillants qui fonctionne tranquillement en arrire-plan de votre bote aux lettres lectronique.« 

Comment l’outil de Reality Defender fonctionne-t-il ?

Aprs un ajout du plugin dans la plateforme de confrence, l’interface de Reality Defender apparat directement dans l’application. Lorsqu’un appel est lanc, la suite de dtection multi-modle de Reality Defender rejoint l’appel en tant que bot, affichant un panneau latral visible uniquement par l’utilisateur qui a lanc l’appel.

Au fur et mesure que l’appel se droule, les modles de dtection vido de Reality Defender commencent analyser les visages l’cran en temps rel, remplissant le panneau latral avec des rsultats et fournissant un score qui rvle la probabilit de manipulation de l’IA au cours de l’appel. Si la technologie deepfake est utilise pour modifier l’apparence d’un participant et usurper le flux de vrification KYC ou se faire passer pour un cadre, un client ou un employ de confiance, l’utilisateur en est immdiatement inform au moyen d’un rapport exploitable.

Les flux vido individuels sont capturs dans la rsolution d’origine et avec des informations d’image brute pour chaque participant. Pour plus de commodit, le bot plugin Reality Defender peut participer plusieurs runions, et l’interface utilisateur offre un ensemble d’outils permettant de grer les runions et de dconnecter les bots de dtection volont. L’interface permet galement de coordonner plusieurs flux vido et d’agrger les rsultats pour chaque runion et chaque participant. Le plugin est dsormais disponible pour Zoom, et des mises jour pour d’autres applications de confrence seront bientt disponibles.

Voici la prsentation de l’outil par Ben Colman, PDG de Reality Defender :

Alors que les progrs de la technologie de l’IA gnrative permettent de crer des deepfakes convaincants de la ressemblance et de la voix d’une personne, les fraudeurs commencent dployer ces deepfakes pour contourner les vrifications de scurit KYC, se faire passer pour des cadres et manipuler les institutions financires et d’autres entreprises pour qu’elles initient des actions haut risque.

Au cours du premier trimestre 2024, l’utilisation d’applications de confrence telles que Zoom comme deuxime tape dans les attaques de fraude multicanal a augment de 33,3 %. La cybercriminalit alimente par l’IA et les deepfakes sont les dfis les plus pressants que les entreprises s’attendent rencontrer dans les 2 3 prochaines annes.

L’augmentation des vidos deepfakes a dj entran des pertes massives pour les entreprises. Dans un cas trs mdiatis, un employ de la socit d’ingnierie Arup a t manipul par un faux appel vido avec le directeur financier de la socit et a transfr 25 millions de dollars sur le compte d’un fraudeur. Alors que les cybercriminels continuent de tester les dfenses des entreprises avec de nouvelles escroqueries alimentes par l’IA, Deloitte estime que l’IA gnrative entranera 40 milliards de dollars de pertes dues la fraude aux tats-Unis d’ici 2027. 43 % des professionnels de la finance interrogs ont t victimes d’une attaque de deepfake scamming. Pourtant, 87 % de ces mmes professionnels admettent qu’ils initieraient une transaction s’ils taient « appels » par leur PDG ou leur directeur financier le faire sans dlai.

Pour aider les entreprises faire face cette menace croissante, l’quipe de Reality Defender est fire d’annoncer la sortie de son systme amlior de dtection de vido deepfake en temps rel. Ce plugin de pointe de Reality Defender s’intgre directement aux fournisseurs de confrences web en tant qu’application native, fournissant un outil de cyberscurit pratique et puissant fonctionnant au dbut de vos appels.

La dtection en temps rel des vidos truques ajoute une couche cruciale la scurit interne et la vrification externe des clients KYC/AML, garantissant la tranquillit d’esprit des cadres, des employs et des clients, qui peuvent tre srs de voir une personne relle et non une imitation gnre par l’IA avec des intentions malveillantes. La facilit d’intgration et d’utilisation garantit que le plugin est prt fonctionner ds le premier jour, offrant ainsi une solution de cyberscurit de premier ordre, volutive, indpendante des plateformes et alimente par les modles de dtection prims de Reality Defender.

Les vido deepfakes en temps rel sont l pour durer et sont utiliss des fins frauduleuses et malveillantes un rythme insondable. C’est pourquoi Reality Defender peut dsormais dtecter ces deepfakes chaque fois que vous participez une runion, grce notre clbre approche multi-modle.

Source : Reality Defender

Et vous ?

Pensez-vous que cet outil est crdible ou pertinent ?

Quel est votre avis sur le sujet ?

Voir aussi :

FakeCatcher, le dtecteur de « deepfake » d’Intel, a t test sur de vraies et de fausses vidos par la BBC

La NSA, le FBI et la CISA publient une fiche d’information sur la cyberscurit concernant les menaces lies aux Deepfake

Deepfake : un employ paye 25 millions de dollars des escrocs aprs une runion vido avec son directeur financier gnr par IA. Les anciennes confrences vidos de ce directeur souponnes d’en tre l’origine



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.