Un rapport rvle que plus de 100 000 comptes ChatGPT compromis sont en vente sur le dark Web, Ce qui pourrait se traduire par le vol ou la fuite de secrets personnels ou d’entreprise

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Un rcent rapport de la socit singapourienne de cyberscurit Group-IB indique que plus de 100 000 identifiants de comptes ChatGPT compromis se sont retrouvs en vente sur le dark Web. Ce vol de donnes a eu lieu entre juin 2022 et mai 2023, l’Inde reprsentant elle seule 12 632 identifiants vols. Les identifiants ont t dcouverts dans des registres de logiciels malveillants de vol d’informations (stealer logs) mis en vente sur le dark Web. Le rapport conforte la position des entreprises qui ont interdit l’utilisation de ChatGPT leurs employs en raison de proccupations lies des divulgations de donnes pouvant entraner le vol de secrets commerciaux.

Le rapport de Group-IB est une nouvelle preuve attestant que les utilisateurs de ChatGPT doivent se mfier de la fuite de leurs donnes personnelles en ligne. OpenAI met en avant les mesures de scurit qu’il a mises en place pour empcher le vol et la divulgation des donnes personnelles des utilisateurs de ChatGPT, mais le rapport montre que le laboratoire d’IA de San Francisco doit faire plus d’efforts. Au total, Group-IB affirme avoir identifi 101 134 comptes d’accs ChatGPT compromis et en vente sur les places de march du dark Web. Selon l’entreprise de scurit, ces informations d’identification auraient t voles entre juin 2022 mai 2023.

Le nombre de journaux disponibles contenant des comptes ChatGPT compromis a atteint un pic de 26 802 en mai 2023. La rgion Asie-Pacifique a connu la plus forte concentration d’identifiants ChatGPT mis en vente au cours de l’anne coule , a dclar l’entreprise base Singapour. L’Inde reprsenterait elle seule environ 12 632 identifiants vols. Les autres pays ayant le plus grand nombre d’identifiants ChatGPT compromis sont le Pakistan, le Brsil, le Vietnam, l’gypte, les tats-Unis, la France, le Maroc, l’Indonsie et le Bangladesh. En raison de l’adoption croissante de ChatGPT par les entreprises, Group-IB alerte sur le risque lev de piratage.

Par dfaut, ChatGPT stocke l’historique des requtes des utilisateurs et les rponses du chatbot d’IA. Par consquent, l’accs l’historique pourrait rvler des secrets d’entreprise ou personnels. Les experts de Group-IB soulignent que de plus en plus d’employs profitent du chatbot pour optimiser leur travail, qu’il s’agisse de dveloppement de logiciels ou de communication d’entreprise. Et de nombreuses entreprises intgrent ChatGPT dans leur flux oprationnel. Les employs saisissent des correspondances classifies ou utilisent le robot pour optimiser le code propritaire , a dclar Dmitry Shestakov, responsable de la veille sur les menaces au Group-IB.

Shestakov a ajout que la demande d’identifiants de compte gagnait une popularit significative. En raison de ces risques, certaines entreprises ont banni l’utilisation de ChatGPT leurs employs, notamment sur le lieu de travail ou sur les appareils lectroniques fournis pour un usage professionnel. Par exemple, Apple et Samsung ont tous deux interdit l’utilisation de ChatGPT (ou n’importe quel autre chatbot) leurs employs pour des raisons de scurit. Dans le cas de Samsung, certains employs ont accidentellement divulgu des secrets. Selon les rapports, ces employs auraient commenc utiliser ChatGPT pour corriger des erreurs dans leur code source.

Par ailleurs, le rapport indique qu’une analyse plus pousse a rvl que la majorit des journaux contenant des identifiants de comptes ChatGPT ont t viols par le clbre voleur d’informations Raccoon (78 348), suivi par Vidar (12 984) et RedLine (6 773). Les logiciels malveillants de vol d’informations sont devenus populaires parmi les cybercriminels en raison de leur capacit dtourner les mots de passe, les cookies, les identifiants des cartes de crdit et d’autres informations des navigateurs, ainsi que les extensions de portefeuilles de cryptomonnaies. Selon Group-IB, il s’agit de l’un des programmes malveillants les plus utiliss aujourd’hui sur le Web.

Gnralement proposs sur la base d’un modle de tarification par abonnement, ils ont abaiss non seulement la barre de la cybercriminalit, mais servent galement de canal pour lancer des attaques ultrieures l’aide des informations d’identification siphonnes. Les journaux contenant des informations compromises rcoltes par les voleurs d’informations sont activement changs sur les places de march du dark Web. Des informations supplmentaires sur les journaux disponibles sur ces marchs comprennent les listes de domaines trouvs dans le journal ainsi que les informations sur l’adresse IP de l’hte compromis , a dclar Group-IB.

Pour attnuer les risques lis aux comptes ChatGPT compromis, Group-IB conseille aux utilisateurs de mettre jour leurs mots de passe rgulirement et de mettre en uvre l’authentification deux facteurs (2FA). En activant le 2FA, les utilisateurs doivent fournir un code de vrification supplmentaire, gnralement envoy leurs appareils mobiles, avant d’accder leurs comptes ChatGPT. En outre, en ce qui concerne les entreprises, Group-IB indique qu’avoir une visibilit sur les communauts du dark Web permet aux organisations d’identifier si leurs donnes sensibles ou les informations de leurs clients sont divulgues ou vendues.

La veille sur les menaces en temps rel leur permet de prendre des mesures proactives pour attnuer l’impact, notifier les personnes concernes et renforcer leur dispositif de scurit afin d’viter d’autres dommages. Grce la veille sur les menaces en temps rel, les entreprises peuvent mieux comprendre le paysage des menaces, protger leurs actifs de manire proactive et prendre des dcisions claires pour renforcer leur position globale en matire de cyberscurit , a dclar Group-IB.

Source : Group-IB

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Les ingnieurs logiciels de Samsung ont divulgu des donnes sensibles en collant du code propritaire dans ChatGPT, alors qu’ils recherchaient un correctif

Apple restreint l’utilisation de ChatGPT par ses employs et rejoint d’autres entreprises qui se mfient des fuites, Samsung a fait une dmarche similaire le mois dernier

15 % des employs utilisent et transmettent ChatGPT une grande quantit de donnes relatives leurs employeurs et 6 % de ces donnes peuvent tre considres comme sensibles



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.