La possibilit d’utiliser ChatGPT et d’autres outils similaires pour crer des campagnes d’hameonnage, en liminant les fautes de frappe et autres erreurs qui sont les signes avant-coureurs d’une escroquerie, a fait l’objet d’un grand battage mdiatique ces derniers temps.
Cependant, de nouvelles recherches menes par Hoxhunt suggrent que l’IA n’est peut-tre pas si doue que cela pour le phishing.
L’entreprise a analys plus de 53 000 utilisateurs de courrier lectronique dans plus de 100 pays afin de comparer le taux de russite des attaques de phishing simules cres par des ingnieurs sociaux humains et celles cres par des modles de langage grande chelle de l’IA. L’tude rvle que les « red teamers » professionnels ont induit un taux de clics de 4,2 %, contre 2,9 % pour le ChatGPT dans l’chantillon de population des utilisateurs de courrier lectronique.
Les humains restent nettement meilleurs pour tromper d’autres humains, dpassant l’IA de 69 %. L’tude montre galement que les utilisateurs plus expriments dans le cadre d’un programme de sensibilisation la scurit et de changement de comportement sont moins susceptibles de se laisser piger par des attaques de phishing, qu’il s’agisse d’e-mails gnrs par l’homme ou par l’IA, les taux d’chec passant de plus de 14 % pour les utilisateurs moins bien forms un taux compris entre 2 et 4 % pour les utilisateurs expriments.
« Une bonne formation la sensibilisation la scurit, au phishing et au changement de comportement fonctionne« , dclare Pyry vist, cofondateur et directeur technique de Hoxhunt. « La mise en place d’une formation suffisamment dynamique pour s’adapter l’volution constante du paysage des attaques continuera protger contre les violations de donnes. Les utilisateurs qui participent activement la formation sont moins susceptibles de cliquer sur un phishing simul, qu’il soit d’origine humaine ou robotique.«
Source : Hoxhunt
Et vous ?
Trouvez-vous cette tude pertinente ?
Etes-vous d’accord avec les conclusions de cette tude ?
Voir aussi :