Certains appels indésirables permettent de cloner votre voix et de créer des deepfakes

Certains appels indésirables permettent de cloner votre voix et de créer des deepfakes


Sous couvert de sondages ou d’enquêtes, des appels indésirables cherchent à obtenir un échantillon de votre voix. L’enregistrement peut ensuite servir à imiter votre voix afin de piéger vos proches et leur soutirer de l’argent.

Pour mener leurs activités criminelles, de plus en plus de pirates se servent des deepfakes. Avec des algorithmes dopés à l’intelligence artificielle, ils peuvent cloner la voix ou imiter le visage de n’importe qui. Ces contenus factices peuvent ensuite servir à piéger leurs victimes.

Par exemple, un hacker peut cloner la voix d’un de vos amis, d’un de vos parents ou de votre partenaire de vie pour vous inciter à lui obéir sans poser trop de questions. En imitant la voix d’une personne, les pirates peuvent facilement vous soutirer de l’argent, des identifiants ou toute autre information sensible. De nombreuses arnaques en cours reposent sur l’utilisation de cette technologie. On se souviendra que l’an dernier, un directeur financier a versé des millions de dollars après avoir assisté à une réunion remplie de deepfakes. L’homme était tombé dans le piège d’un groupe de pirates.

À lire aussi : Arnaque à « la fête d’anniversaire » – 01net enquête sur une escroquerie d’un nouveau genre

Le dessein caché de certaines enquêtes téléphoniques

Afin de cloner la voix d’un individu, les pirates ont impérativement besoin d’un échantillon vocal. Sans un exemple de la voix, les outils basés sur l’IA ne peuvent pas générer une imitation artificielle. Ils ont besoin d’un matériau de base à recopier. Pour mettre la main sur un échantillon, de plus en plus de cybercriminels se servent d’appels indésirables, rapporte Zataz. Prétextant des « sondages d’opinion ou des enquêtes sociologiques », ils vont entrer en contact avec des quidams au téléphone.

Si la cible prend le temps de répondre aux nombreuses questions, leur interlocuteur va enregistrer leur voix. Le blog spécialisé indique les cybercriminels utilisent généralement des « scripts standardisés » pour que leurs victimes répondent de façon claire aux questions. Les scripts contiennent des questions ouvertes, ce qui doit pousser la victime à répondre avec de longues explications. Les pirates ont aussi des astuces pour que la victime parle le plus fort possible dans le combiné. Ils vont diffuser un bruit de fond sur la ligne. En réaction, la cible hausse le ton, ce qui améliore la qualité de l’enregistrement destiné à l’IA.

15 à 30 secondes d’échantillon

Le site ElevenLabs révèle que l’IA peut cloner une voix avec un échantillon de seulement 15 à 30 secondes. Il ne faut pas longtemps pour qu’un appel, même écourté, ait de graves conséquences. La plateforme de la start-up ElevenLabs permet d’ailleurs de générer une simulation vocale en seulement quelques minutes, sur base d’un court échantillon, et moyennant quelques euros. C’est devenu un jeu d’enfants, même avec des compétences limitées en informatique.

Si vous avez le moindre doute sur la véracité des propos de votre interlocuteur au téléphone, raccrochez. Ne prenez pas le risque de communiquer avec un potentiel pirate. De son côté, Zataz conseille de limiter vos réponses lors d’un échange avec un numéro inconnu. Plus largement, n’hésitez pas à refuser les appels provenant de numéros que vous ne connaissez pas.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source :

Zataz



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.