OpenAI a créé un système capable de détecter les textes créés par ChatGPT mais refuse de le déployer

OpenAI a créé un système capable de détecter les textes créés par ChatGPT mais refuse de le déployer


Cela fait environ un an qu’OpenAI dispose d’un système permettant de détecter les textes générés par ChatGPT, son produit-phare, sans le déployer. C’est ce que rapporte dimanche 4 août le Wall Street Journal, qui a échangé avec des employés et eu accès à des documents internes de l’entreprise américaine. Des informations que lui a confirmées une porte-parole d’OpenAI.

L’outil d’intelligence artificielle (IA) générative ChatGPT, sorti en novembre 2022 et accessible gratuitement au grand public, est capable de créer des textes sur demande, qu’il s’agisse de rédiger des e-mails, des messages sur les réseaux sociaux ou des dissertations – au grand désarroi de certains enseignants. Comment savoir si un texte a été rédigé par un humain ou par ce logiciel ? La question agite un certain nombre d’experts, et plusieurs logiciels de détection ont vu le jour, avec des résultats peu convaincants. OpenAI avait elle-même sorti un outil en 2023 censé détecter les textes générés par IA, qu’ils soient issus de ChatGPT ou de logiciels concurrents. Cependant, face à son inefficacité, l’entreprise avait décidé de le retirer quelques mois plus tard.

Mais le Wall Street Journal a appris qu’OpenAI dispose, depuis environ un an, d’un système efficace pour détecter les textes rédigés par ChatGPT (mais pas par ses concurrents). Selon un document consulté par le journal américain, il serait efficace à 99,9 %. Pour simplifier, ce système consiste à modifier très légèrement la façon dont ChatGPT choisit les mots qui vont se succéder pour composer des phrases, créant ainsi une sorte de motif détectable par un outil spécifique. Cet outil fournit, pour chaque texte analysé, un niveau de probabilité qu’il ait été rédigé par ChatGPT.

Risque de perdre des utilisateurs

Ce projet génère des débats en interne depuis deux ans sur l’opportunité de rendre publique ou non cette technologie, rapporte le Wall Street Journal. L’entreprise semble déchirée entre son ambition initiale, visant à développer des outils d’IA pour l’intérêt général accessibles à tous, sur laquelle elle a déjà rogné, et sa volonté d’étendre son nombre d’utilisateurs. En 2023, elle avait mené une étude auprès d’utilisateurs de ChatGPT, qui avait conclu que 69 % d’entre eux craignaient qu’une technologie de détection risquait de mener à de fausses accusations de triche. Une partie significative (30 %) d’entre eux avaient aussi déclaré qu’ils utiliseraient moins ChatGPT si un tel outil était déployé spécifiquement pour le générateur de texte d’OpenAI. L’entreprise craignait aussi que le déploiement de ce système, qui implique de modifier le fonctionnement de ChatGPT, nuise à la qualité de son écriture, mais plusieurs tests ont montré que ce n’était pas le cas.

Une porte-parole d’OpenAI a défendu auprès du Wall Street Journal une « approche prudente ». « Cette méthode que nous développons est techniquement prometteuse, mais soulève aussi des risques importants que nous évaluons, tout en cherchant des alternatives », a-t-elle déclaré, évoquant « un potentiel impact sur l’écosystème au-delà d’OpenAI ». Une des inquiétudes de l’entreprise, a-t-elle dit, est que cet outil puisse affecter de façon disproportionnée les personnes ne parlant pas nativement l’anglais, et se servant de ChatGPT comme d’un assistant.

Après les révélations du Wall Street Journal, OpenAI a mis à jour une publication de mai sur son blog concernant l’authentification des contenus en ligne. L’entreprise y précise que son outil s’est montré « très précis et efficace même contre des altérations localisées, comme les paraphrases ». Néanmoins, elle affirme qu’il fonctionne moins bien si l’intégralité du texte est paraphrasée, par exemple en faisant traduire automatiquement le contenu généré dans une langue, avant de le faire traduire à nouveau dans la langue initiale. OpenAI estime donc que son système de détection est « facile à contourner pour des acteurs malveillants ».

Le Monde

Réutiliser ce contenu



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.