Imaginez que vous receviez un appel téléphonique vous informant qu’un de vos proches a un problème. Votre instinct vous pousserait probablement à faire tout ce qui est en votre pouvoir pour l’aider, y compris faire un virement bancaire.
Les escrocs sont conscients de ce talon d’Achille et utilisent désormais l’IA pour l’exploiter.
Un article du Washington Post présente un couple de personnes âgées, Ruth et Greg Card, qui ont été victimes d’une escroquerie par usurpation d’identité de cette nature.
11 millions de dollars évaporés
Ruth, 73 ans, a reçu un appel d’une personne qu’elle pensait être son petit-fils. Il lui a dit être en prison, sans portefeuille ni téléphone portable, et avoir besoin d’argent rapidement. Comme tous les grands-parents inquiets, Ruth et son mari (75 ans) se sont précipités à la banque.
Ce n’est qu’après s’être rendus dans une seconde banque que le directeur les a avertis avoir déjà vu un cas similaire qui s’était avéré être une escroquerie. Et que leur histoire ressemblait à une escroquerie également.
Et ce n’est pas un cas isolé. L’article indique qu’en 2022, les escroqueries à l’imposture d’identité sont le deuxième type d’escroquerie le plus populaire aux Etats-Unis, avec plus de 36 000 personnes victimes d’appels usurpant l’identité d’amis ou de membres de leur famille. Parmi ces escroqueries, 5 100 se sont produites par téléphone. De quoi délester 11 millions de dollars aux victimes, selon la FTC.
Un son pratiquement impossible à distinguer de la source originale
L’IA générative fait parler d’elle ces derniers temps en raison de la popularité croissante des programmes tels que ChatGPT et DALL·E, d’OpenAI. Ces programmes ont été rapidement associés à leurs capacités à augmenter la productivité des utilisateurs.
Cependant, les mêmes techniques utilisées pour former ces modèles linguistiques peuvent être utilisées pour former des programmes plus nuisibles, tels que les générateurs de voix d’IA, à des fins nuisibles.
Ces programmes analysent la voix d’une personne et recherchent ce qui constitue le son unique de sa voix, notamment la hauteur et l’accent, pour ensuite la recréer en voix de synthèse. Nombre de ces outils fonctionnent en quelques secondes et peuvent produire un son pratiquement impossible à distinguer de la source originale.
Ce que vous pouvez faire pour vous protéger des voix de synthèse
Que pouvez-vous donc faire pour éviter de tomber dans le piège ? La première chose à faire est d’être conscient que ce type d’appel est possible.
Si l’un de vos proches vous appelle pour vous demander de l’aide, n’oubliez pas qu’il pourrait très bien s’agir d’un robot qui parle à sa place. Pour vous assurer qu’il s’agit bien d’un proche, essayez de vérifier la source.
- Essayez de poser à l’appelant une question personnelle dont seul votre proche connaîtrait la réponse. Il peut s’agir simplement de lui demander le nom de votre animal de compagnie, d’un membre de votre famille ou d’un autre fait très personnel.
- Vous pouvez également vérifier l’emplacement de votre proche pour voir s’il correspond à l’endroit où il dit se trouver. Aujourd’hui, il est courant de partager sa position avec ses amis et sa famille, et dans ce cas, cela peut s’avérer très utile.
- Vous pouvez également essayer d’appeler ou d’envoyer un SMS à votre proche à partir d’un autre téléphone pour vérifier l’identité de l’appelant. Si votre proche décroche ou envoie un SMS et ne sait pas de quoi vous parlez, vous avez la réponse.
Enfin, avant de prendre toute décision financière importante, pensez à contacter les autorités pour obtenir des conseils sur la meilleure façon de procéder.
Source : ZDNet.com
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));