29 % des entreprises ont t victimes de fraudes vidos et 37 % ont t touches par des fraudes vocales, tandis que 46 % ont subi une fraude sur l’identit synthtique, selon Regula

LinkedIn est la marque la plus usurpe par les cybercriminels et reprsente 52 % de toutes les attaques de phishing mondiales Il s'agit d'une hausse de 44 % par rapport au trimestre prcdent



Selon une enqute mene par Regula, spcialiste de la vrification d’identit, les fraudes de type « deepfake » sont en augmentation : 37 % des entreprises sont victimes de fraudes vocales et 29 % sont victimes de fausses vidos.

Les faux artefacts biomtriques tels que les fausses voix ou vidos sont perus comme des menaces relles par 80 % des entreprises, les entreprises amricaines tant les plus proccupes, 91 % d’entre elles estimant qu’il s’agit d’une menace croissante.

« Les fausses identits gnres par l’IA peuvent tre difficiles dtecter pour les humains, moins qu’ils ne soient spcialement forms cet effet. Si les rseaux neuronaux peuvent tre utiles pour dtecter les deepfakes, ils doivent tre utiliss en conjonction avec d’autres mesures antifraude axes sur des paramtres physiques et dynamiques, telles que les contrles de la vivacit des visages, les contrles de la vivacit des documents via des lments de scurit optiquement variables, etc. l’heure actuelle, il est difficile, voire impossible, de crer des « deepfakes » qui affichent un comportement dynamique attendu, de sorte que la vrification de la vivacit d’un objet peut vous donner un avantage sur les fraudeurs. En outre, la validation croise des informations de l’utilisateur avec des contrles biomtriques et des contrles de transactions rcentes peut contribuer garantir un processus de vrification complet« , dclare Ihar Kliashchou, directeur de la technologie chez Regula.

Les « deepfakes » ne sont pas le seul problme : l’enqute montre que 46 % des organisations dans le monde ont t confrontes une fraude l’identit synthtique au cours de l’anne coule. galement connue sous le nom d’identit « Frankenstein », il s’agit d’un type d’escroquerie o les criminels combinent de vraies et de fausses informations d’identification pour crer des identits totalement nouvelles et artificielles, qu’ils utilisent ensuite pour ouvrir des comptes bancaires ou effectuer des achats frauduleux. 92 % des entreprises du secteur bancaire considrent la fraude synthtique comme une menace relle, et prs de la moiti d’entre elles (49 %) ont rcemment t confrontes cette escroquerie.

Source : Rapport de Regula

Et vous ?

Quel est votre avis sur le sujet ?

Trouvez-vous que les conclusions de ce rapport de Regula sont pertinentes, voir utiles ?

Selon vous, quelles mesures peuvent-tre mises en place pour limiter ces pratiques frauduleuses ?

D’aprs vous, quelles sont les implications de ces types de menaces pour l’avenir de la vrification d’identit ?

Voir aussi

Les humains trouvent les visages gnrs par l’IA plus dignes de confiance que les vrais visages, ils peinent distinguer les images de visages crs par des machines de celles de vritables humains

Arnaque l’IA : un couple canadien perd 21 000 dollars cause d’une voix gnre par IA qui avait imit la perfection celle de leur fils, prtendant que l’interess avait des ennuis judiciaires

L’acteur Bruce Willis manque de devenir la premire clbrit vendre son visage une firme spcialise en deepfake, mais ravive les dbats autour de la synthse d’images base sur l’IA

Keanu Reeves affirme que les deepfakes sont « terrifiants » et ajoute que ses contrats de film interdisent les modifications numriques de son jeu d’acteur, l’acteur de Matrix dnonce leur utilisation



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.