premières plaintes auprès de la CNIL contre le logiciel d’intelligence artificielle

premières plaintes auprès de la CNIL contre le logiciel d’intelligence artificielle


Au moins deux plaintes portant sur l’utilisation des données personnelles ont été déposées en France contre le robot conversationnel ChatGPT, déjà visé par diverses procédures dans plusieurs pays, a appris mercredi 5 avril l’Agence France-Presse (AFP) auprès des plaignants. Ces deux plaintes, révélées par L’Informé, ont été déposées mardi auprès de la Commission nationale de l’informatique et des libertés (CNIL), le gendarme français des données personnelles.

La première provient de l’avocate Zoé Vilain, présidente de l’association de sensibilisation aux enjeux du numérique Janus International. « On n’est pas anti-tech, mais on souhaite une technologie éthique », a déclaré celle-ci à l’AFP. Dans sa plainte, elle explique avoir créé un compte sur le site d’OpenAI, l’entreprise californienne à l’origine du logiciel, afin d’utiliser ChatGPT et avoir constaté l’absence de « conditions générales d’utilisation » à accepter et d’« une quelconque politique de confidentialité ».

Lire aussi : Article réservé à nos abonnés Elon Musk et des centaines d’experts réclament une « pause » dans le développement de l’intelligence artificielle

Elle demande à la CNIL de l’aider à exercer son droit d’accès à ses informations personnelles collectées par OpenAI, après une tentative infructueuse effectuée auprès de l’entreprise.

Une deuxième plainte a été déposée par David Libeau, développeur très investi dans la protection des données personnelles. Il explique dans sa plainte avoir repéré des informations personnelles le concernant en interrogeant ChatGPT sur son profil. « Lorsque je demandais plus d’informations, l’algorithme a commencé à affabuler et à m’attribuer la création de sites web ou l’organisation de manifestations en ligne, ce qui est totalement faux », écrit-il.

L’Italie, premier pays à bloquer ChatGPT

L’intelligence artificielle générative, une technologie utilisée par ChatGPT pour générer des réponses et qui a été entraînée sur de gigantesques corpus de textes glanés sur Internet, a tendance à inventer certains faits, de l’aveu même de ses concepteurs. Selon David Libeau, cela contrevient à l’article 5 du Règlement européen sur les données personnelles (RGPD), selon lequel les informations sur des personnes doivent être exactes, et tout traitement de données doit être loyal.

Vendredi dernier, l’Italie est devenue le premier pays à bloquer provisoirement ChatGPT, en raison de craintes sur la sécurité des données personnelles, l’absence d’une note d’information aux utilisateurs, et le manque de filtre pour vérifier l’âge des utilisateurs.

D’autres autorités européennes, dont celles de la France, de l’Irlande ou de l’Allemagne se sont depuis rapprochées de leur homologue italienne pour établir une position commune sur ChatGPT. Mardi, le Commissariat à la protection de la vie privée du Canada a lui annoncé qu’il ouvrait une enquête sur OpenAI, toujours à propos des informations à caractère personnel.

L’intelligence artificielle générative est également sous le coup de plaintes d’artistes et de photographes de presse qui veulent pouvoir accepter ou refuser que leurs œuvres soient utilisées pour l’entraînement d’un modèle.

Lire aussi : Article réservé à nos abonnés Dans le sillage de ChatGPT, la course à l’intelligence artificielle

Le Monde avec AFP



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.