Les experts en scurit tirent la sonnette d’alarme contre les escroqueries vocales bases sur l’IA Alors que ces types d’arnaques atteignent des sommets ingals, selon un nouveau rapport de McAfee

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Le monde de l’IA est aussi bon que mauvais et un nouveau rapport d’experts en scurit tire la sonnette d’alarme contre les escroqueries vocales bases sur la technologie de l’IA.

Ce type d’escroquerie semble trs rpandu et trs convaincant pour certaines personnes, car on a l’impression de parler un tre cher. Mais en ralit, c’est loin d’tre le cas. Le rapport approfondi, qui explique comment fonctionne l’ensemble du processus de clonage, a laiss beaucoup de gens dans l’expectative. De mme, il explique comment les escroqueries de ce type sont devenues si courantes qu’il est beaucoup plus facile d’y tomber aujourd’hui qu’auparavant.

Elle fait galement la lumire sur les cots moyens qui y sont lis et sur la manire dont on peut s’en prmunir et se tenir l’cart de toutes les escroqueries vocales construites l’aide de la technologie de l’IA.

Le mois dernier, nous avons t tmoins d’escroqueries l’IA choquantes mais si bien conues que beaucoup les ont juges effrayantes. L’une d’entre elles tait lie l’usurpation d’identit : des proches apparaissaient sur l’appareil de la victime comme tant l’origine de l’appel. Une autre utilisait un clone vocal d’IA pour extorquer la mre des fonds au hasard afin de librer sa fille, qui n’avait pas t kidnappe.

Les experts estiment donc qu’il ne faut pas attendre longtemps avant de voir les attaquants combiner l’usurpation d’identit et les clones utilisant la technologie de l’IA. C’est dans ce contexte que le rapport McAfee est apparu.

Il prsente des escroqueries vocales bases sur l’IA qui sont conues pour faire prendre conscience d’une menace avec plusieurs mthodes permettant la fois de l’empcher de se produire et de fournir la protection ncessaire. Mais comment fonctionne le monde du clonage de la voix artificielle ?

Selon McAfee, les escroqueries vocales sont une combinaison d’escroqueries l’imposteur qui existent depuis longtemps. Les escrocs utilisent la voix d’une personne pour lui demander des fonds en cas d’urgence ou pour faire croire qu’ils dtiennent quelqu’un pour obtenir une ranon.

Les outils de clonage de voix bass sur l’IA sont peu coteux et facilement disponibles. C’est non seulement trs rapide, mais aussi trs simple, car de nombreuses personnes malveillantes utilisent dsormais des clones de voix. Il leur suffit d’obtenir des chantillons audio pour y parvenir, car les gens partagent leurs voix sur diverses applications de mdias sociaux. Et plus il y a de partages en ligne, plus il est facile pour les acteurs de rechercher une voix et de la cloner.

Comme on peut s’y attendre, le clonage de voix peut sembler tre quelque chose de nouveau et nous avons t tmoins de quelques histoires normes dans le monde rel concernant de telles escroqueries. Mais en ralit, l’tude de McAfee a montr qu’elles deviennent de plus en plus courantes avec le temps.

En moyenne, environ 25 % de la population mondiale qui a particip l’enqute affirme avoir t victime d’une escroquerie lie au monde de l’IA vocale ou avoir connu des personnes qui avaient t touches par ce type d’escroquerie.

Des pays comme l’Inde ont t particulirement frapps, puisque 47 % des personnes interroges dans le cadre de l’tude affirment connatre quelqu’un qui a t victime de ce type d’escroquerie.

En ce qui concerne la prcision, vous serez surpris de constater qu’elle est de 95 %, car de nombreux cas ont t signals par le public, qui a rvl que ces voix donnaient l’impression que la personne avait t clone. Dans un cas prcis, un cybercriminel demandait de l’argent pour un enlvement qui n’avait jamais eu lieu. Il est donc vident qu’il est aujourd’hui plus difficile que jamais de distinguer les vraies des fausses personnes.

Malheureusement, 77 % des personnes interroges affirment avoir perdu de l’argent dans ce type d’escroquerie et les chiffres varient entre 1 000 et 15 000 dollars. Au total, ces escroqueries l’imposture ont permis un vol d’une valeur de 2,6 milliards de dollars.

Source : Rapport de McAfee (PDF)

Et vous ?

Quel est votre avis sur le sujet ?

Trouvez-vous que les conclusions de ce rapport de McAfee sont pertinentes ?

Avez-vous dj t victime, ou tmoin, d’une escroquerie la voix artificielle et, si oui, comment avez-vous ragi ?

Selon vous, quelles mesures peuvent tre mises en place pour se protger contre les escroqueries vocales bases sur l’IA ? Et quels rles les entreprises technologiques devraient-elles jouer dans la prvention de ces pratiques malveillantes ?

Pensez-vous qu’un changement d’attitude de la socit l’gard du partage d’informations personnelles en ligne peut contribuer diminuer ces types d’escroqueries ?

Voir aussi

Arnaque l’IA : un couple canadien perd 21 000 dollars cause d’une fausse voix gnre par l’IA qui avait imit la perfection la voix de leur fils

Des milliers de personnes arnaques par des voix d’IA imitant des proches en cas d’urgence, 11 millions de dollars ont t vols par le biais de ces escroqueries par tlphone en 2022

Des cybercriminels ont russi escroquer 222 000 en utilisant un logiciel boost l’IA pour reproduire la voix d’un PDG

Les nouveaux outils de clonage de voix par l’IA ajoutent « de l’huile sur le feu » de la dsinformation, une voix de Joe Biden gnre par l’IA prononce un discours « hilarant » sur l’tat de l’Union



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.