Le nouvel outil de détection d’OpenAI mettra-t-il fin à la triche …

Le nouvel outil de détection d'OpenAI mettra-t-il fin à la triche ...



L’IA pourrait bientôt cesser d’être la solution des étudiants paresseux pour rédiger leurs devoirs. Un article du Wall Street Journal (WSJ) rapporte que « OpenAI a mis au point une méthode permettant de détecter de manière fiable si quelqu’un utilise ChatGPT pour rédiger un essai ou un travail de recherche », avec un taux de précision de 99,9 %.

OpenAI n’a pas révélé en détail comment sa nouvelle méthode peut être presque parfaite pour identifier un texte écrit par l’IA. Ce n’est certainement pas le cas, car elle ne peut pas détecter les hallucinations de l’IA. Comme l’a déclaré l’année dernière John Schulman, cofondateur d’OpenAI, « notre plus grande préoccupation concernait la factualité, car le modèle aime inventer des choses ».

La solution du filigrane

Cela ne changera jamais. Selon Mohamed Elgendy, cofondateur et directeur général de Kolena, un service de test d’apprentissage automatique, « le taux d’hallucinations va diminuer, mais il ne disparaîtra jamais – tout comme même des personnes très instruites peuvent donner de fausses informations ».

Au lieu d’une méthode magique et profonde pour repérer le texte écrit par l’IA, il semble qu’OpenAI utilise une méthode beaucoup plus simple : le service pourrait insérer des filigranes dans ses résultats.

Dans un article de blog, OpenAI révèle qu’elle a mené des recherches sur l’utilisation de classificateurs, de filigranes et de métadonnées pour repérer les produits créés par l’IA. Nous ne savons pas encore exactement comment fonctionne ce filigrane.

Des limites avérées

Nous savons qu’OpenAI affirme qu’il est « très précis et même efficace contre les altérations localisées, telles que la paraphrase ». Cependant, le filigrane est « moins robuste contre les altérations mondialisées ».

Cela signifie que la fonctionnalité ne fonctionne pas bien avec du texte traduit ou quelque chose d’aussi simple que l’insertion de caractères spéciaux dans le texte puis leur suppression. Et, bien sûr, il ne peut pas repérer les œuvres d’un autre modèle d’IA. Par exemple, si vous fournissez au détecteur de texte IA ChatAPT un document créé par Google Gemini ou Perplexity, il ne sera probablement pas en mesure de l’identifier comme un document créé par une IA.

En bref, avec un peu plus d’efforts, les étudiants et les écrivains pourront toujours faire passer le travail d’un chatbot IA pour le leur.

Un marquage pour DALL·E 3

Bien sûr, cela ne dérangera peut-être pas le PDG d’OpenAI, Sam Altman, qui a déclaré à la Harvard Gazette : « Tricher dans les devoirs est évidemment une mauvaise chose. Mais ce que nous entendons par tricherie et quelles sont les règles attendues changent avec le temps. »

Tricher c’est tricher, et ce nouvel outil dans l’arsenal d’OpenAI ne semble pas être d’une grande aide pour l’empêcher.

Curieusement, alors qu’OpenAI se demande encore quand, ou même si, elle doit lancer ce nouveau service, la société introduira bientôt un classificateur de provenance pour DALL·E 3. Cela signifie qu’à terme, presque toutes les images que créées avec le générateur d’images seront marquées comme une création DALL-E AI. OpenAI s’appuie sur les métadonnées C2PA, une norme de contenu numérique, pour marquer et identifier les images.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.