ChatGPT est poursuivi en Autriche pour ses « hallucinations »

Chatgpt Store Gpt


L’agent conversationnel d’OpenAI est l’objet d’une nouvelle action en justice en Europe : NOYB, l’association de défense des droits numériques autrichienne qui attaque régulièrement les géants de la tech, vient de porter plainte en Autriche contre ChatGPT. L’agent conversationnel d’OpenAI est incapable de donner des informations exactes sur les personnes, tout comme il est incapable de corriger ses erreurs, appelées « hallucinations », déplore l’ONG, qui estime qu’OpenAI ne respecte pas le RGPD, le règlement européen sur les données personnelles.

ChatGPT invente des réponses régulièrement, et OpenAI, la société américaine à l’origine du robot conversationnel, est incapable d’empêcher ses « hallucinations », ses erreurs. Si cela n’est pas nouveau, le constat est plus que problématique lorsque les réponses de cet outil d’IA concernent des individus, estime NOYB, l’association autrichienne de défense des droits numériques de Max Schrems. L’ONG vient de porter plainte en Autriche contre ChatGPT, l’agent conversationnel qui permet de générer du texte et du code, annonce-t-elle ce lundi 29 avril, dans un communiqué. L’association demande à la CNIL autrichienne d’ouvrir une enquête et de contraindre le développeur de ChatGPT à respecter le RGPD, le règlement européen sur les données personnelles, avec une amende à la clé.

Applicable depuis 2018, cette loi européenne impose aux sociétés traitant des données personnelles de fournir des informations exactes, en plus de faire preuve de transparence : deux points qui ne seraient pas respectés par OpenAI, rapporte NOYB dans sa plainte. L’ONG explique en effet avoir demandé à ChatGPT la date de naissance de Max Schrems, son fondateur à l’origine de plusieurs actions en justice contre des géants de la tech en Europe.  La réponse donnée étant fausse, NOYB a demandé à OpenAI de la corriger. Mais l’entreprise a « refusé de répondre à la requête du plaignant qui demandait de corriger ou d’effacer l’erreur ». Elle a « affirmé que cela était impossible », note l’association. Le développeur de ChatGPT a aussi rejeté l’autre demande de l’ONG qui exigeait d’avoir accès aux données concernant Max Schrems, ainsi qu’à ses sources d’information, deux points pourtant garantis par le RGPD, plaide NOYB.

ChatGPT et les autres chatbots IA incapables de respecter le RGPD, selon NOYB

Cette réponse est tout simplement « inacceptable » : le RGPD impose en effet aux entreprises de donner des informations exactes, lorsqu’il s’agit de données personnelles – des data comme le nom, la date de naissance, les goûts et préférences d’une personne, souligne l’ONG. Or, les développeurs d’IA « sont actuellement incapables de faire en sorte que les chatbots tels que ChatGPT soient conformes à la législation de l’UE lorsqu’ils traitent des données concernant des personnes ». C’est pourtant « la technologie (qui) doit se plier à la loi, et non l’inverse », a taclé l’avocate Maartje de Graaf, citée dans le communiqué. « ChatGPT semble considérer qu’il peut simplement diffuser de fausses informations, et qu’il n’en est pas responsable », résume l’association dans sa plainte.

« OpenAI admet ouvertement qu’elle n’est pas en mesure de corriger les informations incorrectes sur ChatGPT. L’entreprise ne peut pas dire d’où proviennent les données ni quelles données ChatGPT stocke sur des personnes individuelles », regrette l’ONG. Les systèmes d’IA ingurgitent en effet des milliards de données provenant du Web – dont des données personnelles, sans pour autant tenir un « registre » des données utilisées qui serait accessible à tous. Ces données lui permettent de s’entraîner et de prédire ensuite ce qu’il faut dire en réponse à une demande.

« Lorsqu’il s’agit de fausses informations sur des personnes, les conséquences peuvent être graves »

Ce n’est pas la première fois que ChatGPT est attaqué pour ces hallucinations, le fait que l’agent donne des réponses totalement fausses. Mais si « inventer de fausses informations est déjà problématique en soi, lorsqu’il s’agit de fausses informations sur des personnes, les conséquences peuvent être graves », déplore l’avocate de NOYB citée dans le communiqué.

Des particuliers ont déjà attaqué l’entreprise pour diffamation – ChatGPT ayant par exemple « affirmé » qu’un animateur radio détournait des fonds, ce qui était faux. Mais jusqu’à présent, les différentes mesures ou actions prises par les autorités européennes n’ont pas conduit OpenAI à se mettre au pas de la règlementation européenne sur les données personnelles, regrette en substance l’ONG.

À lire aussi : Plus inquiets qu’ailleurs par l’IA générative, les Français utilisent peu ChatGPT

L’année dernière, la CNIL italienne avait pourtant bloqué, pendant un mois, ChatGPT dans le pays. Un groupe de travail avait, en parallèle, été mis en place pour définir une approche commune entre toutes les autorités de protection de la vie privée européennes. Mais pour l’instant, ces efforts sont restés vains, estime l’association. NOYB demande à la CNIL de son pays d’enquêter et de prendre des mesures pour contraindre OpenAI à respecter le RGPD : le début d’une longue procédure ?

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source :

Communiqué de NOYB du 29 avril 2024



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.