Si l’intelligence artificielle s’invite désormais un peu partout en améliorant notre quotidien, elle représente également un risque lorsqu’elle est exploitée à de mauvaises fins.
C’est ce que pointent du doigt Microsoft et OpenAI dans un rapport qui explique comment l’IA permet également aux cybercriminels de se montrer plus efficaces.
Les deux firmes indiquent avec savoir avec certitude que plusieurs groupes de pirates informatiques exploitent les capacités des outils d’intelligence artificielle génératives pour renforcer leurs attaques en ligne. Il s’agirait de groupes puissants, soutenus par certains états comme la Russie, la Chine, la Corée du Nord ou même l’Iran.
L’IA serait ainsi exploitée pour optimiser le débogage de code, la recherche d’informations open source sur des cibles et systèmes, le renforcement des attaques exploitant l’ingénierie sociale. Cela peut également être plus simple avec la génération de textes plus crédibles pour les campagnes d’hameçonnage.
Les algorithmes peuvent également analyser certaines failles de sécurité pour mieux les exploiter ou créer rapidement de faux sites pour rediriger des victimes de phishing, voire d’organiser du spear-phishing.
Les cybercriminels peuvent ainsi plus facilement traduire leurs textes à la perfection dans plusieurs langues pour cibler un plus large panel de victimes… Tout cela permet de proposer des attaques plus pertinentes, efficaces et surtout plus rapidement et avec des équipes réduites.
Face à ces découvertes, OpenAi aurait déjà coupé l’accès à ses IA génératives à certains groupes comme Forest Blizzard, reconnu pour ses liens avec Moscou, mais également Emerald Street ou encore Thallium en Corée du Nord. Sont également concernés les groupes Charcoal Typhoon et Salmon Typhoon, originaires de Chine et à l’origine d’attaques ciblant la France et les États-Unis.