IA et cybersécurité : l’appel au calme de Cybermalveillance

IA et cybersécurité : l


Pas de révolution à venir pour le moment, mais sans doute une augmentation des volumes à traiter et une aggravation des tendances déjà observées. Le groupement d’intérêt public Cybermalveillance revient sur les enjeux liés à l’intelligence artificielle dans son état de la menace, qui vient d’être publié.



Un point bienvenu après une année 2023 marquée par l’émergence de l’intelligence artificielle générative. Cette technologie a suscité de nombreuses spéculations sur sa reprise par des cybercriminels. Comme le remarque Cybermalveillance, il y a bien des outils qui ont été développés pour les cybercriminels, comme WormGPT, Fraud GPT ou ThreatGPT.



“Ils n’ont pas attendu l’IA”

Mais cela n’annonce pas pour le moment “un bouleversement du panorama des cybermenaces”. La structure chargée d’assister particuliers, entreprises et collectivités reste prudente. Si aucun cas de malveillance pouvant être imputé à un outil d’intelligence artificielle n’a été recensé en France, cette imputation “restera toutefois souvent difficile à déterminer”.


“Les cybercriminels n’ont pas attendu l’IA, ils s’en servent pour faire mieux ou plus vite, sans que nous identifions des menaces nouvelles”, précise Jean-Jacques Latour, en charge de l’expertise au groupement d’intérêt public. D’éventuels gains de productivité qui s’inscrivent dans un contexte plus large.



Cela fait plusieurs années que la cybercriminalité se démocratise, en étant “de plus en plus facilement accessible à de nouveaux acteurs disposant de faibles compétences techniques, au travers de services spécialisés commercialisés en ligne”, remarque en effet la structure dans son rapport.

Esprit critique

Toutefois, même s’ils ne sont pas synonymes de nouvelles menaces, les outils basés sur l’intelligence artificielle devraient permettre des manoeuvres sophistiquées. Selon le South China Morning Post, un employé a ainsi été victime d’un hypertrucage sophistiqué, poussé à faire un virement d’une vingtaine de millions d’euros. Le salarié avait été trompé lors d’une vidéoconférence où tous les participants, sauf lui, étaient simulés par l’IA.


“L’IA va brouiller nos sens, il va falloir apprendre à développer notre sens critique”, observe Jean-Jacques Latour. Mais ce genre d’outils doit aussi “nous permettre d’identifier plus rapidement des choses malveillantes”.


Sans toutefois, comme le rappelait récemment Vincent Strubel, changer là aussi le paradigme. Le patron de l’Anssi avait mis en garde contre les “marchands de peur”. Et de pointer le principal enjeu du sujet, la sécurité des outils basés sur IA.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.