l’IA chinoise DeepSeek visée par une enquête en Italie

l'IA chinoise DeepSeek visée par une enquête en Italie


L’autorité en charge de la concurrence et de la protection des consommateurs italienne a ouvert une enquête officielle visant DeepSeek. L’autorité antitrust estime que l’agent conversationnel chinois n’a pas donné aux utilisateurs des avertissements « suffisamment clairs, immédiats et intelligibles » concernant le risque d’« hallucinations » (d’erreurs) de cette IA générative.

Les consommateurs sont-ils suffisamment avertis des risques « d’hallucinations » et de résultats inventés lorsqu’ils utilisent DeepSeek, le rival chinois de ChatGPT ? C’est la question posée par l’autorité en charge de la concurrence et de la protection des consommateurs, l’AGCM, lundi 16 juin. L’autorité antitrust italienne explique sur son site avoir ouvert une enquête visant la startup chinoise d’intelligence artificielle (IA), soupçonnée de « pratique commerciale déloyale ». Elle estime que les utilisateurs n’ont pas été suffisamment prévenus que cet outil d’IA générative pouvait générer de fausses informations.

Ce n’est pas la première fois que DeepSeek, le chatbot chinois qui bouscule les géants américains de l’IA, est dans le collimateur d’une autorité italienne. En janvier dernier, le concurrent de Gemini et Le Chat avait fait l’objet de plusieurs questions de l’autorité en charge des données personnelles, l’équivalente de la CNIL dans le pays.

À lire aussi : DeepSeek frappe encore : le nouveau modèle R1-0528 défie OpenAI et Google

L’utilisateur pas assez prévenu des risques d’hallucinations du chatbot ?

Mais cette fois, c’est l’autorité chargée de la protection des consommateurs et de la concurrence qui tape du poing sur la table. Dans sa lettre, l’AGCM écrit que « DeepSeek est (soupçonné d’avoir) adopté un comportement consistant à ne pas informer de manière suffisamment claire, immédiate et intelligible que les utilisateurs de ses modèles d’IA pouvaient être victimes de ce que l’on appelle dans le jargon technique des ” hallucinations” », un terme que l’autorité définit ensuite. Il s’agit de « situations dans lesquelles, en réponse à une commande d’un utilisateur (prompt, NDLR), le modèle d’IA génère un ou plusieurs résultats contenant des informations inexactes, trompeuses ou inventées ».

À lire aussi : DeepSeek est accusé de partager vos données avec TikTok

Si les conditions générales d’utilisation (CGU) précisent bien que ces risques existent, l’AGCM estime que cette information n’est pas suffisamment accessible aux utilisateurs qui doivent se rendre sur la page des CGU pour l’apprendre. Ils peuvent donc croire que les informations données par l’agent conversationnel chinois sont fiables. DeepSeek a trente jours pour répondre aux questions de l’autorité antitrust.

À lire aussi : Microsoft interdit DeepSeek à ses employés

Une première action initiée en janvier dernier contre le chatbot chinois

Il s’agit de la seconde action dans le pays initiée contre DeepSeek. En janvier dernier, l’équivalente de la CNIL en Italie s’était déjà penchée sur le chatbot chinois, cette fois sur le terrain des données personnelles. Elle estimait alors que l’application d’IA générative posait potentiellement des risques pour les données de millions de personnes en Italie. L’autorité italienne souhaitait savoir « quelles données personnelles étaient collectées » quand un utilisateur italien utilise DeepSeek, que cela soit sur le site Web ou sur l’application.

À lire aussi : Données personnelles : DeepSeek dans le collimateur de la CNIL italienne

La CNIL italienne demandait aussi des informations sur les sources d’entraînement, les finalités des collectes de données, la base juridique choisie pour le traitement (des données personnelles) et la localisation des serveurs où sont stockées les data récoltées par le chatbot. Vingt jours plus tard, la CNIL italienne avait ordonné à DeepSeek de bloquer l’accès à son chatbot, car la société chinoise n’avait pas répondu à ses préoccupations en matière de protection des données personnelles. Contacté, DeepSeek n’avait pas répondu à notre demande de commentaires, à l’heure de la publication de cet article. Pour rappel en 2023, ChatGPT avait été suspendu pendant un mois en Italie, faute d’avoir satisfait aux attentes de la Garante, la CNIL italienne.

À lire aussi : L’Italie sanctionne un chatbot IA d’une amende de 5 millions d’euros

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.