Les entreprises doivent encadrer l’utilisation de l’IA gnrative, d’aprs Ray Canzanese, Threat Research Director du Threat Labs de Netskope

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Lanc par la Premire ministre en septembre dernier, le comit de lintelligence artificielle gnrative a pour objectif de prsenter des propositions concrtes d’ici six mois afin d’adapter la stratgie du Gouvernement au sujet de l’IA, en plein essor. Selon la dernire enqute annuelle de McKinsey, un tiers des entreprises utilisent rgulirement lIA gnrative dans au moins une fonction, et 60 % des organisations ayant dclar avoir adopt lIA utilisent lIA gnrative. Si les avantages de son utilisation sont considrables, elle nest pas sans risque. En juin dernier, plus de 100 000 comptes ChatGPT ont t pirats, puis mis en vente sur le Dark Web. Il faut donc avoir conscience que ces outils ne garantissent pas la scurit ou la confidentialit des donnes.

Selon Ray Canzanese, Threat Research Director du Threat Labs de Netskope, si les applications d’IA gnrative ont le potentiel de faciliter le quotidien des collaborateurs, elles peuvent galement exposer de manire significative les donnes sensibles et les organisations des risques de compromissions de donnes et de non-conformit :

Selon nos recherches, pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de donnes sensibles avec lapplication ChatGPT. Les codes source sont les plus partages dans ChatGPT, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs. On dnombre galement des donnes rglementes, notamment financires ou mdicales, et des informations personnellement identifiables (IPI). Les organisations doivent donc prendre des contre-mesures srieuses pour prserver la confidentialit et la scurit de leurs donnes sensibles. Cela implique de surveiller l’utilisation et l’abus potentiel d’applications dIntelligence Artificielle gnrative, en limitant l’exposition d’informations sensibles par leur intermdiaire et en scurisant les documents confidentiels contre la perte accidentelle et le vol.

Pour relever le dfi, la visibilit sera cl. Les quipes de scurit doivent en effet s’appuyer sur des outils automatiss capables de surveiller en permanence les applications telles que ChatGPT auxquelles les utilisateurs de l’entreprise accdent ; et plus particulirement comment, quand, partir d’o et quelle frquence. Il est essentiel de comprendre galement les diffrents niveaux de risque que chaque outil reprsente pour l’organisation et d’avoir la capacit de dfinir des politiques de contrle d’accs granulaires, en temps rel sur la base de cette catgorisation ainsi que des conditions de scurit qui peuvent changer au fil du temps.

Alors que les applications plus explicitement malveillantes devraient tre bloques, la responsabilit de l’utilisation dapplications dIA gnrative devrait tre confie aux utilisateurs. Il ny aura en effet pas de futur sans ces technologies, lobjectif est donc de permettre, mais de restreindre leur utilisation des activits dfinies et pertinentes. En parallle, les quipes de scurit ont la responsabilit de sensibiliser les collaborateurs aux applications et aux activits juges risques. Cela peut se faire via des alertes en temps rel et des workloads automatiss de formation, en impliquant l’utilisateur dans les dcisions d’accs aprs avoir reconnu le risque.

Les utilisateurs commettent des erreurs et peuvent, par ngligence, mettre en danger des donnes sensibles. Par consquent, il est primordial de limiter le tlchargement et la publication de donnes hautement sensibles via ChatGPT et autres outils similaires. Seules des techniques modernes de prvention des pertes de donnes (DLP) permettent d’y parvenir, car elles sont capables d’identifier automatiquement les flux de donnes critiques et de catgoriser les messages sensibles avec un niveau de prcision trs lev.

Source : Netskope

Et vous ?

Trouvez-vous cette analyse crdible ou pertinente ?

Quelle est la situation de votre entreprise vis–vis de l’IA gnrative ?

Voir aussi :

WormGPT est une alternative ChatGPT sans limites thiques ou restrictions . Le chatbot IA peut aider les cybercriminels crer des logiciels malveillants, et des attaques de phishing

81 % des utilisateurs se mfient de ChatGPT et s’inquitent de sa scurit et de sa sret, et 63 % ne font pas confiance aux informations produites par cet outil d’IA gnrative, selon Malwarebytes

Les employs utilisent secrtement ChatGPT, ce qui pose des risques pour les entreprises, l’utilisation non contrle de l’IA gnrative, une bombe retardement pour les socits



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.