Comme de nombreux autres domaines, la cybercriminalité profite des avancées de l’intelligence artificielle pour agir plus rapidement, plus efficacement et de manière plus sophistiquée. En combinant robots automatisés, piratages de comptes et ingénierie sociale, les escrocs aguerris affinent leurs techniques grâce à l’IA. Un rapport de Gartner met en lumière cette évolution et alerte sur les risques croissants pour l’avenir.
Les comptes en ligne sont une cible privilégiée des cybercriminels, principalement en raison de la faiblesse des systèmes d’authentification, explique Jeremy D’Hoinne, vice-président et analyste chez Gartner. Pour obtenir les mots de passe, les attaquants exploitent différentes techniques, telles que les violations de données.
L’IA facilite le piratage
Lorsqu’un mot de passe est compromis, l’intelligence artificielle entre en jeu. Les cybercriminels déploient des robots automatisés pour tester les identifiants sur différents services en ligne. Leur but : identifier les plateformes où ces mêmes informations sont réutilisées, notamment celles offrant un potentiel lucratif.
S’ils parviennent à accéder à un compte stratégique, ils peuvent en exploiter toutes les données pour en prendre le contrôle total. Et si l’attaquant ne souhaite pas agir lui-même, il peut toujours revendre ces informations sur le dark web, où elles trouveront facilement preneur.
« L’usurpation de compte reste une menace constante, car des identifiants d’authentification faibles, comme les mots de passe, sont obtenus par divers moyens : violations de données, phishing, ingénierie sociale et logiciels malveillants », explique Jeremy D’Hoinne dans le rapport de Gartner. « Les pirates s’appuient ensuite sur des robots pour multiplier les tentatives de connexion sur plusieurs services, espérant que les mêmes identifiants aient été réutilisés. »
Une automatisation des attaques
L’intelligence artificielle permet aux cybercriminels d’automatiser plus facilement les étapes nécessaires à la prise de contrôle d’un compte. Avec cette évolution, Gartner estime que d’ici deux ans, le temps requis pour pirater un compte pourrait être réduit de 50 %.
Mais l’IA ne se limite pas au vol de comptes : elle facilite aussi la création de deepfakes sophistiqués. Les attaquants combinent aujourd’hui l’ingénierie sociale avec des deepfakes audio et vidéo pour tromper leurs cibles. En imitant la voix d’un cadre ou d’un collègue de confiance lors d’un appel, ils peuvent manipuler un employé sans méfiance afin de lui soutirer de l’argent ou des informations sensibles.
Les deepfakes, prochaine grande menace ?
Bien que seuls quelques cas très médiatisés aient été signalés, ces attaques ont causé des pertes financières considérables aux entreprises concernées. Détecter une fausse voix reste un défi majeur, en particulier lors d’appels vocaux ou vidéo en temps réel. Face à cette menace croissante, Gartner estime que d’ici 2028, 40 % des attaques d’ingénierie sociale viseront aussi bien les dirigeants que l’ensemble des employés.
« Les entreprises devront surveiller de près l’évolution du marché et adapter leurs processus pour mieux résister aux attaques reposant sur des techniques de falsification de la réalité », explique Manuel Acosta, analyste principal chez Gartner. « Former les employés aux nouvelles menaces, notamment à l’ingénierie sociale associée aux deepfakes, sera une étape essentielle pour renforcer leur vigilance. »
Dans son rapport, Gartner propose plusieurs recommandations pour contrer les attaques basées sur l’ingénierie sociale et les deepfakes :
- Sensibiliser les employés : formez-les aux risques liés aux deepfakes et à l’ingénierie sociale, tout en évitant de compter uniquement sur leur capacité à les détecter.
- Renforcer les vérifications : toute demande d’informations sensibles par téléphone doit être confirmée via un autre canal de communication.
- Adopter une politique de rappel : mettez en place un numéro dédié que les employés peuvent appeler pour valider toute demande confidentielle.
- Aller au-delà du simple rappel : assurez-vous qu’une seule demande ne puisse suffire à déclencher une action critique. Par exemple, un transfert financier ne devrait être possible qu’après une validation par plusieurs responsables.
- Suivre les avancées technologiques : restez informé des nouveaux outils de détection des deepfakes et complétez-les par d’autres moyens d’identification, comme l’attribution d’un identifiant unique aux appelants.
Déjouer les attaques alimentées par l’IA
Face à l’essor des cyberattaques basées sur l’intelligence artificielle, comment les individus et les organisations peuvent-ils se protéger ?
« Pour relever ces nouveaux défis, les entreprises doivent elles aussi tirer parti de l’IA en adoptant des outils capables d’analyser leur environnement en temps réel et d’émettre des alertes précises pour renforcer la sécurité », explique Nicole Carignan, vice-présidente principale de la sécurité et de la stratégie d’IA chez Darktrace.
Nicole Carignan souligne également l’importance d’anticiper les nouvelles menaces en intégrant des réponses automatisées, qu’elles soient autonomes ou supervisées par des équipes de sécurité. « Cette approche permet d’accélérer la réaction face aux attaques. En adoptant des technologies d’IA capables de détecter les anomalies et de contrer des menaces inédites, les organisations peuvent renforcer leur sécurité », ajoute-t-elle.
En complément, des outils comme l’authentification multifacteur et la vérification biométrique, notamment la reconnaissance faciale ou l’analyse des empreintes digitales, offrent une protection supplémentaire contre la compromission des comptes.