Les bots assistés par ChatGPT pullulent désormais sur les réseaux sociaux

Les bots assistés par ChatGPT pullulent désormais sur les réseaux sociaux


Pour de nombreux utilisateurs, parcourir les fils d’actualité et les notifications des médias sociaux revient à patauger dans la boue. Pourquoi ? Voici une réponse. Une nouvelle étude identifie 1 140 robots assistés par IA qui diffusent des informations erronées sur X (anciennement Twitter) sur les sujets de crypto-monnaies et de blockchain.


Mais les comptes de bots qui publient ce type de contenu peuvent être difficiles à repérer, comme l’ont constaté les chercheurs. Les comptes robots utilisent ChatGPT pour générer leur contenu et sont difficiles à différencier des comptes réels, ce qui rend la pratique encore plus dangereuse pour les victimes.


Les comptes robots alimentés par l’IA ont des profils qui ressemblent à ceux de vrais humains, avec des photos de profil et des bios ou des descriptions sur la cryptographie et la blockchain. Ils publient régulièrement des messages générés par l’IA, affichent des images volées, répondent aux messages et les retweetent.


Les chercheurs ont découvert que les 1 140 comptes de robots Twitter appartenaient au même botnet social malveillant, qu’ils ont appelé « fox8 ». Soit un réseau de bot zombies, c’est à dire un réseau de comptes, contrôlés de manière centralisée par des cybercriminels.


Les robots d’IA générative imitent de mieux en mieux les comportements humains. Cela signifie que les outils de détection de bots traditionnels, tels que Botometer, sont désormais insuffisants. Dans l’étude, ces outils ont eu du mal à identifier et à différencier les contenus générés par des robots des contenus générés par des humains. Mais l’un d’entre eux s’est distingué : Le classificateur d’IA d’OpenAI, qui a pu identifier certains tweets de bots.


Comment repérer les comptes de robots ?


Les comptes de robots sur Twitter présentent des comportements similaires. Ils se suivent les uns les autres, utilisent les mêmes liens et hashtags, publient des contenus similaires et s’engagent même les uns avec les autres.


Les chercheurs ont passé au peigne fin les tweets des comptes robots d’IA et ont trouvé 1 205 tweets révélateurs.


Sur ce total, 81 % contenaient la même phrase d’excuse :


« Je suis désolé, mais je ne peux pas répondre à cette demande car elle viole la politique de contenu d’OpenAI sur la génération de contenu nuisible ou inapproprié. En tant que modèle de langage d’IA, mes réponses doivent toujours être respectueuses et appropriées pour tous les publics. »


L’utilisation de cette phrase suggère au contraire que les robots ont pour instruction de générer du contenu préjudiciable qui va à l’encontre des politiques dOpenAI.


Les 19 % restants ont utilisé une variante du langage « En tant que modèle de langage d’IA », 12 % d’entre eux disant spécifiquement « En tant que modèle de langage d’IA, je ne peux pas naviguer sur Twitter ou accéder à des tweets spécifiques pour fournir des réponses. »


Le fait que 3 % des tweets postés par ces robots renvoient à l’un des trois sites web (cryptnomics.org, fox8.news et globalconomics.news) constitue un autre indice.


Ces sites ressemblent à des sites d’information normaux mais présentent des signaux d’alerte notables, comme le fait qu’ils ont tous été enregistrés à peu près au même moment, en février 2023, qu’ils comportent des fenêtres contextuelles invitant les utilisateurs à installer des logiciels suspects, qu’ils semblent tous utiliser le même thème WordPress et que leurs domaines renvoient à la même adresse IP.


Les comptes de robots malveillants peuvent utiliser des techniques d’autopropagation dans les médias sociaux en publiant des liens contenant des logiciels malveillants ou des contenus infectieux, en exploitant et en infectant les contacts d’un utilisateur, en volant les cookies de session des navigateurs des utilisateurs et en automatisant les demandes de suivi.


Source : « ZDNet.com »



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.