Ce bug de ChatGPT doit vous faire réfléchir

Ce bug de ChatGPT doit vous faire réfléchir


 » L’historique est temporairement indisponible. Nous nous efforçons de rétablir cette fonctionnalité dès que possible « , peut-on actuellement lire dans l’interface web de ChatGPT, en lieu et place de l’historique habituel des conversations. Lundi, l’agent conversationnel d’OpenAI a même été globalement indisponible durant plusieurs heures.

À Bloomberg, un porte-parole d’OpenAI mentionne un bug dans un logiciel open source qui est à l’origine du souci, ainsi qu’une enquête toujours en cours afin d’en déterminer la cause précise. Il confirme par ailleurs des signalements au sujet d’un problème dérangeant.

Le bug a eu pour conséquence de permettre à certains utilisateurs de ChatGPT de voir les titres des historiques de conversations d’autres utilisateurs. L’identité de ces derniers n’était cependant pas divulguée et il n’y a pas eu d’accès aux transcriptions complètes des conversations. Ce n’était en tout cas pas une hallucination de l’IA générative…

Une piqûre de rappel

Un tel bug peut être pris comme un rappel à la vigilance dans l’utilisation de ChatGPT. Dans sa FAQ générale au sujet de ChatGPT, OpenAI attire l’attention sur le fait de ne pas partager d’informations sensibles dans les conversations.

Cette sensibilisation est en lien avec l’incapacité pour OpenAI de supprimer des invites spécifiques de l’historique d’une personne. Par ailleurs, les conversations sont susceptibles d’être analysées pour l’entraînement de l’IA et l’amélioration du système.


Ne pas dévoiler des secrets à ChatGPT

Selon une étude de la société Cyberhaven, qui propose une solution de cybersécurité sur les données pour les entreprises, 5,6 % des employés ont utilisé ChatGPT sur leur lieu de travail et 4,9 % y ont collé des données confidentielles d’entreprise.

L’étude se base sur l’analyse de l’utilisation de ChatGPT pour 1,6 million de salariés dans des entreprises de tous les secteurs ayant recours à la solution de Cyberhaven qui bloque de telles tentatives. Elle a été mise à jour à plusieurs reprises et le taux de partage de données sensibles ne cesse d’augmenter.

Au cours de la semaine du 26 février au 4 mars, les employés d’une entreprise moyenne de 100 000 salariés ont mis des documents confidentiels dans ChatGPT à 199 reprises, 173 fois des données client et 159 fois du code source.

Pour Cyberhaven, le risque est qu’à l’avenir un tiers et concurrent d’une entreprise pourrait par exemple obtenir de ChatGPT des réponses en se basant sur des informations sensibles fournies.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.