Face aux deepfakes, quelles stratégies de défense? 

Face aux deepfakes, quelles stratégies de défense? 



La popularisation des outils d’intelligence artificielle générative affecte aussi bien les outils des défenseurs que ceux des attaquants. Le recours aux deepfakes, ces images générées par intelligence artificielle, est ainsi de plus en plus courant dans les tentatives d’escroqueries type « Arnaque au président », bien que celles-ci puissent parfois être détectées avant que le mal soit fait. 

La formation reste plébiscitée

Getapp, société rachetée par Gartner qui propose des recommandations de logiciels à destination des entreprises, a publié hier une étude portant sur les stratégies mises en œuvre par les sociétés pour se protéger de ce type d’attaque. L’étude a consisté à interroger 2648 professionnels de l’informatique et de la cybersécurité, dont 235 français.

Le recours à des outils d’identification biométrique, visant à authentifier les gens en se basant sur l’analyse de certaines caractéristiques physiques (Empreinte digitale, voix, iris etc) est globalement vue comme une solution satisfaisante par 69% des sondés, elle n’en restent pas moins complexe et coûteuse à mettre en œuvre. Et de nombreux sondés (72%) craignent que le recours croissant aux deepfakes ne soit en mesure de contourner ces outils.

Pour faire face à cette problématique, les entreprises interrogées comptent principalement sur la mise en place de séances de formations et de sensibilisation régulières, mais aussi sur la participation aux conférences de cybersécurité pour connaître l’évolution des techniques employées par les cybercriminels. En troisième position, les sondés évoquent enfin la mise en œuvre d’exercices de simulation pour faire connaître les bonnes pratiques.

La détection doit faire ses preuves

Le fait est que les outils de détection capables de reconnaître de manière automatisée et efficace des contenus audio ou visuel produits par une intelligence artificielle restent difficiles à concevoir. Les techniques de génération d’image évoluant rapidement, les stratégies de détection doivent évoluer également pour rester pertinentes.

Ce qui n’empêche pas les sociétés spécialisées de proposer ce type d’outils :  Intel avait commencé en 2022 à mettre à disposition de ses utilisateurs son outil FakeCatcher, qui cherche à détecter les vidéos réalisées par intelligence artificielle. La semaine dernière, l’éditeur japonais Trend Micro a également annoncé le déploiement de son outil Deepfake Inspector, qui vise à aider les entreprises à se protéger contre ce type d’escroqueries en s’appuyant notamment sur l’analyse des éléments comportementaux pour détecter une vidéo générée par IA.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.