Seuls 5 % des experts en cyberscurit ont confiance dans les mesures de scurit qui protgent leurs applications GenAI, mme si 90 % d’entre eux les utilisent activement D’aprs une tude de Lakera

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Bien que les entreprises adoptent massivement la GenAI, seuls 5 % des 1 000 experts en cyberscurit ayant rpondu une nouvelle enqute de Lakera ont confiance dans les mesures de scurit protgeant leurs applications GenAI, mme si 90 % d’entre eux les utilisent activement ou tudient la possibilit de les utiliser.

Les recherches menes par Lakera montrent que les mthodes d’attaque spcifiques la GenAI, ou attaques par invite, sont facilement utilisables par n’importe qui pour manipuler les applications, obtenir un accs non autoris, voler des donnes confidentielles et entreprendre des actions non autorises.

Gandalf, un jeu ducatif sur l’IA cr par Lakera, invite les joueurs essayer de tromper l’IA pour qu’elle rvle un mot de passe. Il a attir plus d’un million de joueurs, dont des experts en cyberscurit qui ont tent de percer ses dfenses. Fait remarquable, 200 000 de ces joueurs ont russi franchir sept niveaux du jeu, dmontrant ainsi leur capacit manipuler les modles de GenAI pour leur faire prendre des mesures involontaires.

Il suffit de quelques mots bien choisis pour que mme un novice puisse manipuler les systmes d’IA, ce qui entrane des actions involontaires et des violations de donnes , dclare David Haber, cofondateur et PDG de Lakera. Alors que les entreprises s’appuient de plus en plus sur la GenAI pour acclrer l’innovation et grer des tches sensibles, elles s’exposent sans le savoir de nouvelles vulnrabilits que les mesures de cyberscurit traditionnelles ne prennent pas en compte. La combinaison d’une forte adoption et d’une faible prparation n’est peut-tre pas si surprenante dans un domaine mergent, mais les enjeux n’ont jamais t aussi importants.

Parmi les autres rsultats de l’tude, la fiabilit et la prcision du LLM sont considres comme le principal obstacle l’adoption. 35 % des personnes interroges craignent la fiabilit et la prcision du LLM, tandis que 34 % sont proccupes par la confidentialit et la scurit des donnes. Le manque de personnel qualifi reprsente 28 % des proccupations.

Malgr ces inquitudes, 45 % des personnes interroges explorent les cas d’utilisation de la GenAI, 42 % utilisent et mettent en uvre activement la GenAI et seulement 9 % n’ont pas l’intention d’adopter les LLM pour le moment. Seuls 22 % des rpondants ont adopt une modlisation des menaces spcifiques l’IA pour se prparer aux menaces spcifiques la GenAI.

propos de Lakera

Lakera est le leader mondial de la scurit GenAI en temps rel. Les clients font confiance la plateforme de scurit de l’IA de Lakera pour une scurit qui ne ralentit pas leurs applications d’IA. Pour acclrer l’adoption scurise de l’IA, l’entreprise a cr Gandalf, une plateforme ducative o plus d’un million d’utilisateurs se sont familiariss avec la scurit de l’IA. Lakera utilise l’IA pour faire voluer en permanence les dfenses, afin que les clients puissent garder une longueur d’avance sur les menaces mergentes.

Source : « GenAI Security Readiness Report 2024 » (Etude de Lakera)

Et vous ?

Quel est votre avis sur le sujet ?

Trouvez-vous les conclusions de cette tude de Lakera crdibles ou pertinentes ?

Voir aussi :

Les craintes lies la scurit conduisent les entreprises interdire l’utilisation de la GenAI : 27 % des organisations ont interdit l’utilisation de l’IA gnrative, selon Cisco

52 % des membres de conseils d’administration franais considrent l’IA gnrative comme un risque pour la scurit de l’entreprise, pour 84 % d’entre eux, la cyberscurit est une priorit



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.