L’anne dernire a t marque par des avances rvolutionnaires dans le domaine de l’intelligence artificielle gnrative, ou IA gnrative. Peu de temps aprs leur lancement, ces plateformes ont gagn en popularit, ChatGPT atteignant son premier million d’utilisateurs en seulement cinq jours. La mauvaise nouvelle, en particulier pour ceux qui travaillent dans le domaine de la scurit de l’information, est que l’accessibilit de l’IA gnrative a galement cr des opportunits pour les cybercriminels d’exploiter la technologie pour crer des cyber-menaces sophistiques, souvent avec le courrier lectronique comme premier vecteur d’attaque.
Pour illustrer la faon dont l’IA devient une arme, des exemples concrets de courriels malveillants gnrs par l’IA reus par les clients d’Abnormal au cours de l’anne coule ont t rassembls. Ces exemples mnent une conclusion surprenante : les acteurs de la menace ont clairement adopt l’utilisation malveillante de l’IA. Cela signifie galement que les organisations doivent ragir en mettant en uvre des solutions de cyberscurit bases sur l’IA pour stopper ces attaques avant qu’elles n’atteignent les botes de rception des employs.
Comment et pourquoi l’IA est utilise pour les attaques par courrier lectronique
Auparavant, de nombreux cybercriminels s’appuyaient sur des formats ou des modles pour lancer leurs campagnes. De ce fait, un grand nombre d’attaques partagent des indicateurs de compromission communs qui peuvent tre dtects par les logiciels de scurit traditionnels, car ils utilisent le mme nom de domaine ou le mme lien malveillant. L’IA gnrative, en revanche, permet aux escrocs de crer un contenu unique en quelques millisecondes, ce qui rend infiniment plus difficile la dtection qui repose sur la correspondance avec des chanes de texte malveillantes connues.
L’IA gnrative peut galement tre utilise pour augmenter de manire significative la sophistication globale des attaques d’ingnierie sociale et d’autres menaces par courrier lectronique. Par exemple, de mauvais acteurs peuvent abuser de l’API ChatGPT pour crer des courriels de phishing ralistes, des logiciels malveillants polymorphes et des demandes de paiement frauduleuses convaincantes. Et mme si Open AI a impos des limites ce que ChatGPT peut produire, les cybercriminels ont ragi en crant leurs propres formes malveillantes d’IA gnrative. Par exemple, WormGPT n’a pas les garde-fous des outils open source qui empchent les mauvais acteurs de les utiliser de manire contraire l’thique. De mme, FraudGPT est une plateforme sur abonnement qui utilise des algorithmes d’apprentissage automatique raffins pour gnrer du contenu trompeur.
Attaques relles (probablement) gnres par l’IA
Au cours de l’anne coule, Abnormal a dtect un certain nombre d’attaques probablement gnres par l’IA. Comme pour tous les modles d’IA, il est pratiquement impossible de dterminer avec une certitude absolue si une attaque a t cre par l’IA. Cependant, certains outils tels que CheckGPT fournissent de fortes indications sur l’implication de l’IA. Vous trouverez ci-dessous plusieurs exemples d’attaques dtectes par Abnormal, ainsi que d’autres exemples dans le dernier rapport de recherche.
L’attaquant se fait passer pour une compagnie d’assurance pour tenter de diffuser un logiciel malveillant
Dans cette attaque, l’auteur de la menace se fait passer pour un reprsentant d’une compagnie d’assurance et informe le destinataire que l’e-mail contient en pice jointe des informations sur les prestations, ainsi qu’un formulaire d’inscription qui doit tre rempli dans son intgralit et renvoy. Si le destinataire ne le fait pas, il est inform qu’il risque de perdre sa couverture.
L’auteur utilise un nom d’affichage apparemment authentique (« Customer Benefits Insurance Group ») et un courriel d’expditeur (« alerts@pssalerts[.]info »), mais les rponses sont rediriges vers un compte Gmail contrl par l’auteur de l’attaque. Malgr une faade professionnelle, la plateforme d’Abnormal a dtermin que la pice jointe contenait probablement des logiciels malveillants, exposant l’ordinateur du destinataire des risques de virus et de vol de donnes d’identification.
L’analyse de l’attaque, ralise par Giant Language Model Test Room (GLTR), montre la probabilit qu’elle soit gnre par l’IA. Les modles codent les mots par couleur en fonction de la probabilit de prdiction de chaque mot compte tenu du contexte gauche. Le vert indique qu’un mot fait partie des 10 premiers mots prdits, tandis que le jaune indique un mot parmi les 100 premiers mots prdits. Les mots en rouge sont classs parmi les 1 000 premiers mots prdits, tandis que tous les autres mots sont en violet.
Comme vous pouvez le constater, la majeure partie du texte est surligne en vert, ce qui indique qu’il a probablement t gnr par l’IA plutt que cr par un humain. Vous remarquerez galement qu’il n’y a pas de fautes de frappe ou de grammaire, des signes qui, historiquement, ont toujours t rvlateurs d’une attaque.
Un usurpateur de l’identit de Netflix compromet un domaine lgitime dans le cadre d’une attaque par hameonnage d’informations d’identification
Dans cette attaque de phishing, l’auteur de la menace se fait passer pour un reprsentant du service clientle de Netflix et prtend que l’abonnement de la cible arrive expiration. Pour continuer bnficier du service, le destinataire est inform qu’il doit renouveler son abonnement en utilisant le lien fourni. Cependant, l’URL mne un site malveillant o les informations sensibles sont en danger.
L’attaquant utilise l’ingnierie sociale pour crer un sentiment d’urgence. Il ajoute galement de la sophistication l’escroquerie en utilisant ce qui semble tre un domaine d’assistance authentique associ Teeela, une application d’achat de jouets en ligne. L’utilisation d’un courriel hberg sur Zendesk, une plateforme d’assistance la clientle de confiance, peut tromper les destinataires et leur faire croire que le courriel est lgitime, ce qui augmente l’efficacit de l’attaque.
L encore, la majeure partie du texte est surligne en vert, ce qui indique qu’il a probablement t gnr par l’IA, plutt que cr par un humain. Il est intressant de noter que l’analyse de l’IA a mis en vidence le numro de tlphone intressant, alors que le pirate semble avoir omis de mettre jour le numro de tlphone pour le remplacer par un numro lgitime.
Un usurpateur de marque de cosmtiques tente une fraude la facturation
Dans cette tentative de mise jour de compte de facturation, l’attaquant se fait passer pour un responsable du dveloppement commercial de la socit de cosmtiques LYCON et informe le destinataire d’irrgularits dans son bilan, constates lors d’un audit de mi-anne. Il explique qu’en raison d’une panne survenue lors d’une mise jour du systme, il n’a plus accs aux relevs de compte et qu’il doit maintenant demander toutes les factures ouvertes ou en retard. L’auteur de l’attaque conseille galement de cesser les paiements sur les comptes prcdents et promet de nouvelles coordonnes bancaires pour les transactions futures une fois l’audit termin.
L’escroquerie vise extraire des informations financires sensibles et racheminer les paiements vers le compte bancaire de l’auteur de l’attaque. Aucun lien ou pice jointe n’est prsent, et l’e-mail est rdig sur un ton officiel, utilisant plusieurs techniques d’ingnierie sociale pour tromper le destinataire.
Une fois de plus, la majorit du texte est surligne en vert, ce qui indique qu’il a probablement t gnr par l’IA, plutt que cr par un humain. Il est vrai qu’il y a plus de rouge ici que dans les exemples prcdents, probablement parce que cette attaque utilise un langage plus formel que la moyenne.
Stopper les attaques par courriel gnres par l’IA
Comme ces courriels sont souvent envoys par un fournisseur de services de messagerie lgitime, qu’ils sont sous forme de texte et qu’ils s’appuient sur l’ingnierie sociale pour inciter le destinataire agir, il est difficile pour les solutions traditionnelles de scurit des courriels de les dtecter comme des attaques. Ils atterrissent donc dans les botes de rception des employs, qui doivent alors prendre la dcision d’agir ou non. Et comme l’IA limine compltement les erreurs grammaticales et les fautes de frappe qui taient historiquement les signes rvlateurs d’une attaque, les humains sont beaucoup plus susceptibles d’en tre victimes qu’auparavant.
Bien que l’IA gnrative ne soit utilise grande chelle que depuis un an, il est vident qu’il existe un potentiel d’abus gnralis. Pour les responsables de la scurit, il s’agit d’un signal d’alarme qui les incite donner la priorit aux mesures de cyberscurit afin de se prmunir contre ces menaces avant qu’il ne soit trop tard. Les attaques prsentes ici sont bien excutes, mais elles ne sont que le dbut de ce qui est possible.
Nous avons atteint un point o seule l’IA peut arrter l’IA, et o la prvention de ces attaques et de leurs quivalents de prochaine gnration ncessite l’utilisation de dfenses natives de l’IA. Pour garder une longueur d’avance sur les acteurs de la menace, les organisations doivent se tourner vers des plateformes de scurit de la messagerie lectronique qui s’appuient sur les lments connus plutt que sur les lments inconnus. En comprenant l’identit des personnes au sein de l’organisation et leur comportement normal, le contexte des communications et le contenu de l’e-mail, les solutions natives de l’IA peuvent dtecter des attaques qui contournent les solutions traditionnelles. En fait, c’est la seule faon d’aller de l’avant – il est encore possible de gagner la course l’armement de l’IA, mais les responsables de la scurit doivent agir maintenant pour prvenir ces menaces.
Pour en savoir plus, notamment sur la manire dont Abnormal a stopp chaque attaque, tlchargez le livre blanc.
Source : « Uncovering AI-Generated Email Attacks: Real-World Examples from 2023 » (tude d’Abnormal)
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi