les « red teamers » professionnels ont induit un taux de clics de 4,2 %, contre 2,9 % pour le ChatGPT, suite une tude de Hoxhunt

LinkedIn est la marque la plus usurpe par les cybercriminels et reprsente 52 % de toutes les attaques de phishing mondiales Il s'agit d'une hausse de 44 % par rapport au trimestre prcdent



La possibilit d’utiliser ChatGPT et d’autres outils similaires pour crer des campagnes d’hameonnage, en liminant les fautes de frappe et autres erreurs qui sont les signes avant-coureurs d’une escroquerie, a fait l’objet d’un grand battage mdiatique ces derniers temps.

Cependant, de nouvelles recherches menes par Hoxhunt suggrent que l’IA n’est peut-tre pas si doue que cela pour le phishing.

L’entreprise a analys plus de 53 000 utilisateurs de courrier lectronique dans plus de 100 pays afin de comparer le taux de russite des attaques de phishing simules cres par des ingnieurs sociaux humains et celles cres par des modles de langage grande chelle de l’IA. L’tude rvle que les « red teamers » professionnels ont induit un taux de clics de 4,2 %, contre 2,9 % pour le ChatGPT dans l’chantillon de population des utilisateurs de courrier lectronique.

Les humains restent nettement meilleurs pour tromper d’autres humains, dpassant l’IA de 69 %. L’tude montre galement que les utilisateurs plus expriments dans le cadre d’un programme de sensibilisation la scurit et de changement de comportement sont moins susceptibles de se laisser piger par des attaques de phishing, qu’il s’agisse d’e-mails gnrs par l’homme ou par l’IA, les taux d’chec passant de plus de 14 % pour les utilisateurs moins bien forms un taux compris entre 2 et 4 % pour les utilisateurs expriments.

« Une bonne formation la sensibilisation la scurit, au phishing et au changement de comportement fonctionne« , dclare Pyry vist, cofondateur et directeur technique de Hoxhunt. « La mise en place d’une formation suffisamment dynamique pour s’adapter l’volution constante du paysage des attaques continuera protger contre les violations de donnes. Les utilisateurs qui participent activement la formation sont moins susceptibles de cliquer sur un phishing simul, qu’il soit d’origine humaine ou robotique.« 

Source : Hoxhunt

Et vous ?

Trouvez-vous cette tude pertinente ?

Etes-vous d’accord avec les conclusions de cette tude ?

Voir aussi :

Le chatbot d’IA ChatGPT est capable de lancer des attaques de phishing dangereuses, et de concevoir des codes de tlchargement malveillant d’une efficacit redoutable

Une enqute rvle que certaines entreprises remplacent dj les travailleurs par ChatGPT, malgr les avertissements selon lesquels il ne faut pas s’y fier pour « quoi que ce soit d’important »

Des experts en scurit sont parvenus crer un logiciel malveillant polymorphe « hautement vasif » l’aide de ChatGPT, le logiciel malveillant serait capable d’chapper aux produits de scurit

Des cybercriminels testent le chatbot ChatGPT pour crer des logiciels malveillants, et ravivent des craintes sur un futur o l’intelligence artificielle pourra surpasser l’humanit



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.