Dans le domaine de la cybersécurité, attaquants et défenseurs jouent continuellement au chat et à la souris : chaque nouvelle attaque amène une nouvelle contre-mesure, qui est à son tour dépassée par une nouvelle attaque. Depuis quelque temps, l’intelligence artificielle (IA) s’est introduite dans le débat, comme le montre le dernier rapport de l’Agence de l’Union européenne pour la cybersécurité (Enisa), qui trace un panorama des menaces les plus pressantes et fait la part belle à celles qui sont liées à l’IA. Le dernier rapport de veille technologique publié par Europol, l’agence européenne de police, est consacré quant à lui à ChatGPT.
Pour simplifier, l’IA permet tout d’abord d’améliorer les techniques d’attaque existantes, par exemple le très répandu piratage psychologique (social engineering) dont l’objectif est de tromper ou manipuler une personne pour obtenir frauduleusement l’accès à certaines informations, comme un mot de passe, ou une action, comme un virement bancaire. Qui n’a jamais été la cible d’un hameçonnage (phishing), sous la forme d’un courrier électronique frauduleux ? L’apparition des agents conversationnels tels que ChatGPT a grandement permis d’améliorer la technique avec l’envoi de courriers mieux écrits et plus réalistes, et le rapport de l’Enisa cite une étude liant l’adoption à grande échelle de ChatGPT par le public à une augmentation de 135 % des attaques d’hameçonnage en deux mois.
Si cette évolution s’inscrit dans un processus d’amélioration continue de la technique – les e-mails truffés de fautes d’orthographe, qui faisaient sourire aux premiers temps de l’hameçonnage, sont loin derrière nous –, l’IA permet d’aller beaucoup plus loin, par exemple en tenant compte d’un contexte personnalisé. Sa variante vocale (vishing), où la voix d’une personne est « clonée » à partir de données publiques et où l’attaquant prétend être une connaissance ayant besoin d’aide, est, quant à elle, de plus en plus populaire, comme le souligne l’agence américaine de protection des consommateurs. Ces exemples se généralisent à de nombreuses autres attaques, ChatGPT pouvant également, en particulier, concourir à la création de logiciels malveillants.
Heureusement, l’IA permet aussi d’améliorer les techniques de riposte, fondées par exemple sur les traces d’activité des ordinateurs (log). Leur analyse peut permettre d’identifier des schémas d’attaque et leur surveillance en ligne de détecter des événements inhabituels, pour bloquer des attaques. La technologie actuelle ne permet malheureusement pas, dans le cas général, de détecter automatiquement les contenus générés par des IA.
Il vous reste 35% de cet article à lire. La suite est réservée aux abonnés.