Le dernier rapport d’Egress sur les tendances des menaces de phishing, bas sur les donnes de son outil de scurit des emails Egress Defend, rvle que prs des trois quarts des dtecteurs d’IA ne peuvent pas dire si un email de phishing a t crit par un chatbot.
Parce qu’ils utilisent de grands modles de langage (LLM), la prcision de la plupart des outils de dtection augmente avec la taille des chantillons, ncessitant souvent un minimum de 250 caractres pour fonctionner. Comme 44,9 % des courriels de phishing ne respectent pas la limite des 250 caractres et que 26,5 % sont infrieurs 500 caractres, les dtecteurs d’IA actuels ne fonctionnent pas de manire fiable ou ne fonctionnent pas du tout pour 71,4 % des attaques.
Il ne fait aucun doute que les chatbots ou les grands modles de langage abaissent la barrire d’entre de la cybercriminalit, en permettant de crer des campagnes de phishing bien crites et de gnrer des logiciels malveillants que des codeurs moins comptents ne pourraient pas produire seuls. Cependant, l’une des applications les plus proccupantes des LLM, mais dont on parle le moins, est la reconnaissance pour des attaques trs cibles. En quelques secondes, un chatbot peut rechercher sur Internet des informations de source ouverte sur une cible choisie, qui peuvent servir de prtexte des campagnes d’ingnierie sociale, qui sont de plus en plus courantes. On me demande souvent si le LLM change vraiment la donne, mais en fin de compte, tout dpend de la dfense que vous avez mise en place. Si vous comptez sur la dtection traditionnelle du primtre qui utilise la dtection base sur la signature et la rputation, alors vous devez valuer de toute urgence des solutions intgres de scurit de la messagerie dans le cloud qui ne s’appuient pas sur des bibliothques de dfinitions et des vrifications de domaine pour dterminer si un e-mail est lgitime ou non ! , dclare Jack Chapman, vice-prsident de la veille sur les menaces chez Egress.
Le rapport montre galement que la proportion de courriels de phishing utilisant des techniques d’obscurcissement a augment de 24,4 % en 2023 pour atteindre 55,2 %. L’obscurcissement permet aux cybercriminels de dissimuler leurs attaques certains mcanismes de dtection. Egress constate que prs de la moiti (47 %) des courriels de phishing qui utilisent l’obscurcissement contiennent deux couches afin d’augmenter les chances de contourner les dfenses de scurit des courriels et d’assurer la russite de l’envoi au destinataire cible. Moins d’un tiers (31 %) n’utilisent qu’une seule technique. La contrebande de HTML s’est avre tre la technique d’obscurcissement la plus populaire, reprsentant 34 % des cas.
De plus en plus de courriels de phishing parviennent galement franchir le primtre de dtection traditionnel. Ainsi, bien que le volume global n’ait pas augment, les attaques sont de plus en plus sophistiques et les cybercriminels utilisent une multitude de tactiques pour russir franchir le primtre de scurit des courriels. Le pourcentage d’e-mails qui passent travers les dfenses de Microsoft a augment de 25 % entre 2022 et 2023. De mme, le pourcentage de courriels qui passent travers les passerelles de messagerie scurises (secure email gateways : SEG) a augment de 29 % entre 2022 et 2023.
En outre, les attaques de phishing envoyes partir de comptes compromis ont augment de 11 % en 2023. Les comptes compromis sont des domaines de confiance, de sorte que ces attaques chappent gnralement la dtection traditionnelle du primtre. Prs de la moiti (47,7 %) des attaques de phishing que le systme de dtection de Microsoft n’a pas dtectes ont t envoyes partir de comptes compromis. Le type de charge utile le plus courant est constitu de liens de phishing vers des sites web (45 %), contre 35 % en 2022. Et toutes les charges utiles ont contourn la dtection base sur les signatures dans une certaine mesure.
Source : Egress
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous que les rsultats de ce rapport sont pertinents ou au contraire orient ?
Que pensez-vous de la difficult pour dtecter les textes gnrs par l’IA ?
Selon vous, comment peut-on dtecter de manire fiable les textes gnrs par l’IA ?
Voir aussi :
Les dtecteurs d’IA sont biaiss par rapport aux rdacteurs dont l’anglais n’est pas la langue maternelle, leur fiabilit est remise en question : le contenu de ChatGPT n’est pas dtect
Une tude affirme que les internautes ne parviennent dtecter avec prcision les textes gnrs par l’IA que dans 50 % des cas, et une autre estime que les outils de dtection ne sont pas fiables