Les textes gnrs par l’IA pourraient accrotre l’exposition aux menaces L’identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Un nouveau rapport publi par WithSecure met en vidence une autre utilisation potentielle de l’IA pour crer du contenu nuisible.

Les chercheurs ont utilis GPT-3 (Generative Pre-trained Transformer 3) – des modles de langage qui utilisent l’apprentissage automatique pour gnrer du texte – pour produire une varit de contenus jugs nuisibles.

L’exprience a port sur le phishing et le spear-phishing, le harclement, la validation sociale d’escroqueries, l’appropriation d’un style crit, la cration d’opinions dlibrment discordantes, l’utilisation des modles pour crer des invites pour des textes malveillants, et les fake news.

« Le fait que toute personne disposant d’une connexion Internet puisse dsormais accder de puissants modles linguistiques de grande taille a une consquence trs pratique : il est dsormais raisonnable de supposer que toute nouvelle communication que vous recevez a peut-tre t rdige avec l’aide d’un robot« , explique Andy Patel, chercheur en intelligence chez WithSecure, qui a dirig les recherches. «  l’avenir, l’utilisation de l’IA pour gnrer des contenus aussi bien nuisibles qu’utiles ncessitera des stratgies de dtection capables de comprendre le sens et l’objectif des contenus crits. »

Les rsultats amnent les chercheurs conclure que l’on verra se dvelopper l’ingnierie des invites en tant que discipline, ainsi que la cration d’invites malveillantes. Les attaquants sont galement susceptibles de dvelopper de manire imprvisible les capacits offertes par les grands modles linguistiques. Cela signifie que l’identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes. Les grands modles linguistiques donnent dj aux criminels la possibilit de rendre plus efficace toute communication cible dans le cadre d’une attaque.

« Nous avons commenc cette recherche avant que ChatGPT ne mette la technologie GPT-3 la disposition de tous« , ajoute Patel. « Ce dveloppement a accru notre urgence et nos efforts. Car, dans une certaine mesure, nous sommes tous des Blade Runners maintenant, essayant de dterminer si l’intelligence laquelle nous avons affaire est ‘relle’ ou artificielle. »

Source : WithSecure

Et vous ?

Qu’en pensez-vous ?

Voir aussi :

42 % des spcialistes en marketing estiment que l’IA sera la tendance principale suivre en 2023, le streaming vido arrive en seconde position, suivi du mtavers et de la tlvision connecte

Une fausse application mobile se faisant passer pour ChatGPT tente d’escroquer les utilisateurs via un abonnement hebdomadaire de 7,99*$, l’App Store et le Play Store en contiendraient plusieurs

Des scientifiques affirment qu’ils essaient maintenant activement de construire des robots dots d’une conscience, mais cela introduit de nouveaux dfis et soulve de nombreux problmes thiques



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.