l’Italie précise ses demandes à OpenAI

l’Italie précise ses demandes à OpenAI


OpenAI, l’entreprise américaine qui édite le robot conversationnel ChatGPT, a jusqu’au 30 avril pour se conformer à une série de demandes du régulateur italien de la vie privée, sous peine de poursuite, a annoncé mercredi 12 avril la GDPD italienne, l’équivalent de la Commission nationale de l’informatique et des libertés (CNIL) en France.

Au début du mois, la GDPD avait en effet mis en demeure OpenAI, reprochant à l’entreprise de ne pas respecter le droit européen sur la protection des données. Elle lui avait demandé de cesser de proposer son service sur le territoire national. OpenAI avait dès lors bloqué l’accès à son site et à ChatGPT pour les utilisateurs se connectant depuis l’Italie.

La GDPD a à présent détaillé les mesures qu’elle attend de la part de l’entreprise : OpenAI devra mettre en place des avertissements pour dissuader les personnes mineures de créer un compte sur ChatGPT ; lancer une campagne d’information publique « à la radio, la télévision, dans les journaux et sur Internet » pour expliquer aux Italiens comment la société utilise leurs données personnelles ; et mettre en place un mécanisme permettant aux citoyens italiens de demander la rectification d’informations les concernant, comme le prévoit la loi dans tous les pays d’Europe.

Lire aussi : Article réservé à nos abonnés « L’intelligence artificielle a déjà les mêmes problèmes que les réseaux sociaux »

Plaintes auprès de la CNIL

C’est ce dernier point, notamment, qui est à l’origine de plaintes visant OpenAI dans plusieurs pays, dont la France. Mercredi, le député Eric Bothorel (Renaissance) a annoncé avoir déposé une plainte auprès de la CNIL après avoir constaté de multiples inexactitudes lorsqu’un utilisateur demande à ChatGPT de lui fournir une biographie de l’élu. La réponse fournie par le robot conversationnel se trompe concernant la circonscription dans laquelle le député a été élu, lui attribue des mandats de maire et de conseiller régional qu’il n’a jamais détenus, et assure qu’il a travaillé pour Havas et Orange, deux sociétés dont il n’a jamais été employé, a explique M. Bothorel à BFMTV.

En cause, la propension de ChatGPT à « halluciner » – c’est-à-dire inventer des éléments qui lui manquent pour tenter de répondre à une question, un phénomène bien documenté et un défaut majeur des robots conversationnels utilisant des technologies similaires. Aux Etats-Unis, un professeur de droit de l’université s’est plaint, à la fin du mois de mars, que ChatGPT évoque une accusation d’agression sexuelle à son encontre n’ayant en réalité jamais existé. Le robot conversationnel est même allé jusqu’à préciser que la supposée agression aurait eu lieu durant un voyage auquel le professeur n’a en fait jamais participé, et ce alors qu’il travaillait pour une autre université que celle mentionnée par ChatGPT.

Cette plainte s’ajoute à d’autres déposées précédemment en France par une militante de la vie privée et un développeur. Des enquêtes des régulateurs de la vie privée ont également été ouvertes en Allemagne et au Canada.

Lire aussi : ChatGPT : premières plaintes auprès de la CNIL contre le logiciel d’intelligence artificielle

Le Monde





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.