La mise à disposition de ChatGPT il y a quelques semaines a été un bouleversement. Demandez n’importe quoi à l’intelligence artificielle, elle vous formulera une réponse argumentée dans un style rédactionnel qui la rend quasiment indiscernable d’un texte produit par un humain.
Elle sait aussi composer du code, philosopher, donner des conseils, rédiger du courrier en mettant les formes, produire des textes courts ou longs dans tous les styles, répondre à toutes sortes d’interrogations…
Telle que présentée, elle pourrait remplacer à court terme de nombreux métiers d’écriture ou épauler la conception de textes plus élaborés, tout comme DALL-E, l’IA de génération d’images, peut aider les créatifs à visualiser de nouveaux projets et idées.
En pouvant répondre à n’importe quelle requête, elle inquiète même Google dont le moteur de recherche pourrait alors prendre un coup de vieux s’il n’ajoute pas bientôt à son tour une dose d’intelligence artificielle conversationnelle.
Une technologie à double tranchant
Mais très vite, on s’est aperçu que ChatGPT pouvait tout aussi bien devenir un outil dangereux. Production de fake news en grande quantité (d’autant que l’IA peut produire plusieurs variantes d’une même requête), triche pour la rédaction pour la rédaction de mémoires et dans les examens, imitation du style d’écriture d’une personne ou même production de fausses connaissances (il est possible de demander la définition de produits ou de concepts qui n’existent pas), les possibilités négatives sont presque aussi infinies que les positives.
Certes, l’IA conversationnelle d’OpenAI présente les limites de ses bases de données d’entraînement et possède un certain nombre de contraintes imposées mais cela ne suffira pas pour empêcher l’émergence de ses capacités néfastes.
D’où l’idée suggérée par un chercheur du MIT ayant rejoint OpenAI, Scott Aaronson, de mettre en place un signal ou un marqueur caché dans des textes longs qui alerteraient de l’implication de ChatGPT.
Marquer les textes générés d’une empreinte
Puisque bon nombre d’applications malveillantes imposent de cacher l’utilisation de ChatGPT, il faudrait donc pouvoir faire en sorte de détecter qu’un texte est généré par l’IA.
L’une des solutions pourrait être de donner à la production de ChatGPT un « style particulier », pas forcément reconnaissable au premier abord mais qui ne tromperait pas, que ce soit stylistique ou via un marqueur caché de façon cryptographique.
Mais même une telle solution ne résoudrait pas tous les problèmes. Avec suffisamment de moyens et de volonté, il resterait possible de retirer cette signature, le code de l’IA étant ouvert, ou bien de demander à une IA différente de réécrire le texte de ChatGPT pour faire disparaître les indicateurs. La boîte de Pandore a peut-être bel et bien été ouverte…