Google sauvegarde par dfaut vos conversations avec son chatbot IA sparment pendant des annes, ce qui soulve des questions de scurit

Des dmocrates amricains demandent Google de limiter la golocalisation avant l'abrogation de l'arrt autorisant l'avortement aux tats-Unis, Dans une lettre Sundar Pichai, PDG de Google



Un nouveau document d’assistance choquant de Google a suscit l’indignation aprs avoir dvoil comment son application Gemini Chatbot stocke en fait les donnes des utilisateurs par dfaut en ligne. Cette pratique est observe sur le web, pour les utilisateurs d’iOS et ceux d’Android. Les conversations qui ont t examines ou annotes par des rviseurs humains (et les donnes connexes telles que votre langue, le type d’appareil, les informations de localisation ou les commentaires) ne sont pas supprimes lorsque vous supprimez votre activit Gemini Apps, car elles sont conserves sparment et ne sont pas connectes votre compte Google. En revanche, elles sont conserves pendant une priode pouvant aller jusqu’ trois ans , rvle Google dans une page d’assistance.

Ne tapez rien dans Gemini, la famille d’applications GenAI de Google, qui soit incriminant (ou que vous ne voudriez pas que quelqu’un d’autre voie). C’est l’avertissement (en quelque sorte) lanc par Google, qui, dans un nouveau document d’assistance, explique comment il recueille les donnes des utilisateurs de ses applications de chatbot Gemini pour le web, Android et iOS.

Google prcise que des annotateurs humains lisent, tiquettent et traitent rgulirement les conversations avec Gemini (mme si ces conversations sont dconnectes des comptes Google – afin d’amliorer le service. (Il n’est pas prcis si ces annotateurs sont internes ou externaliss, ce qui pourrait avoir une incidence sur la scurit des donnes ; Google ne le prcise pas). Ces conversations sont conserves jusqu’ trois ans, avec des donnes connexes telles que les langues et les appareils utiliss par l’utilisateur, ainsi que sa localisation.

Citation Envoy par Google

Quelles donnes sont collectes

Lorsque vous interagissez avec les applications Gemini, Google collecte les informations suivantes :

  • Conversations
  • Localisation
  • Commentaires
  • Informations d’utilisation

Lorsque vous utilisez Gemini pour vous faire aider sur mobile, Google traite des informations supplmentaires pour vous comprendre, vous rpondre et vous aider, tout en vous permettant de garder les mains libres.

Comment Google utilise ces donnes

Ces donnes aident Google fournir, amliorer et dvelopper ses produits et services, ainsi que ses technologies de machine learning, telles que celles sur lesquelles s’appuient les applications Gemini.

Voici quelques exemples :

  • Les applications Gemini utilisent vos conversations prcedentes, votre position et les informations associes pour gnrer une rponse.
  • Nous examinons vos commentaires et nous les utilisons pour renforcer la scurit des applications Gemini. Nous les utilisons galement pour rduire les problmes courants lis aux grands modles de langage.

Quelle est donc la solution ? Comment viter que cela ne se produise ?

Selon Google, la seule solution semble tre de dsactiver les applications de Gemini en cliquant sur l’onglet Mon activit, car cette option est active par dfaut et empche l’accs aux discussions futures ou leur stockage en ligne.

En revanche, si vous tes plus proccup par les chats individuels ou les invites effectues via Gemini, ne vous inquitez pas, vous pouvez les supprimer via l’cran Activit des applications dont vous avez t tmoin en ligne.

Google a indiqu que les chats effectus par l’intermdiaire de Gemini peuvent toujours tre stocks dans la base de donnes, mme si l’activit de Gemini est dsactive. Mais ces donnes sont conserves pendant 72 heures afin de garantir la scurit de l’utilisateur sur Gemini et d’amliorer l’exprience de l’utilisateur lors de l’utilisation des applications.

C’est pourquoi le fabricant d’Android avertit dsormais les utilisateurs de ne plus ajouter dans les chats des donnes sensibles ou pirates qu’ils n’auraient jamais voulu exposer pour amliorer les produits et les services, sans parler de la technologie d’apprentissage automatique : Veuillez ne pas saisir d’informations confidentielles dans vos conversations ni de donnes que vous ne voudriez pas qu’un valuateur voie ou que Google utilise pour amliorer nos produits, nos services et nos technologies d’apprentissage automatique , crit Google.

Il faut dire que les rgles de collecte et de conservation des donnes de GenAI de Google ne diffrent pas tellement de celles de ses rivaux. OpenAI, par exemple, enregistre tous les chats avec ChatGPT pendant 30 jours, que la fonction d’historique des conversations de ChatGPT soit dsactive ou non, sauf dans les cas o l’utilisateur a souscrit un plan d’entreprise assorti d’une politique de conservation des donnes personnalise.

Un quilibre difficile

La politique de Google illustre les dfis inhrents l’quilibre entre la protection de la vie prive et le dveloppement de modles GenAI qui se nourrissent des donnes des utilisateurs pour s’amliorer eux-mmes.

Les politiques librales de conservation des donnes de la GenAI ont rcemment mis les fournisseurs dans le collimateur des autorits de rgulation.

L’t dernier, la FTC a demand OpenAI des informations dtailles sur la manire dont l’entreprise contrle les donnes utilises pour l’entranement de ses modles, y compris les donnes des consommateurs, et sur la manire dont ces donnes sont protges lorsqu’elles sont accessibles des tiers. Du ct de l’Europe, l’autorit italienne de protection des donnes a dclar qu’OpenAI ne disposait pas d’une base juridique pour la collecte et le stockage massifs de donnes caractre personnel en vue de l’entranement de ses modles GenAI.

Alors que les outils de GenAI prolifrent, les organisations se mfient de plus en plus des risques lis la protection de la vie prive.

OpenAI, Microsoft, Amazon, Google et d’autres proposent des produits GenAI destins aux entreprises qui ne veulent explicitement pas conserver les donnes pendant un certain temps, que ce soit pour la formation des modles ou d’autres fins. Cependant, les consommateurs – comme c’est souvent le cas – n’ont pas droit l’erreur.

Une enqute rcente de Cisco a rvl que 63 % des entreprises ont tabli des limites quant aux donnes pouvant tre introduites dans les outils de GenAI, tandis que 27 % d’entre elles ont compltement interdit la GenAI. La mme enqute a rvl que 45 % des employs ont saisi des donnes problmatiques dans les outils de GenAI, notamment des informations sur les employs et des fichiers non publics concernant leur employeur.

L’IA gnrative suscite des inquitudes croissantes en matire de protection de la vie prive

Les organisations considrent la GenAI comme une technologie fondamentalement diffrente avec de nouveaux dfis prendre en compte , a dclar Dev Stahlkopf, directeur juridique de Cisco. Plus de 90% des personnes interroges pensent que la GenAI ncessite de nouvelles techniques pour grer les donnes et les risques. C’est l qu’une gouvernance rflchie entre en jeu. La prservation de la confiance des clients en dpend .

Parmi les principales proccupations, les entreprises ont cit les menaces pesant sur les droits juridiques et de proprit intellectuelle d’une organisation (69 %), et le risque de divulgation d’informations au public ou aux concurrents (68 %).

La plupart des organisations sont conscientes de ces risques et mettent en place des contrles pour limiter l’exposition : 63% ont tabli des limites sur les donnes qui peuvent tre saisies, 61% ont des limites sur les outils GenAI qui peuvent tre utiliss par les employs, et 27% ont dclar que leur organisation avait compltement interdit les applications GenAI pour le moment. Nanmoins, de nombreuses personnes ont saisi des informations qui pourraient tre problmatiques, notamment des informations sur les employs (45 %) ou des informations non publiques sur l’entreprise (48 %).

Lenteur des progrs en matire d’IA et de transparence

Les consommateurs sont proccups par l’utilisation de l’IA impliquant leurs donnes aujourd’hui, et pourtant 91% des organisations reconnaissent qu’elles doivent faire plus pour rassurer leurs clients sur le fait que leurs donnes sont utilises uniquement des fins prvues et lgitimes dans le cadre de l’IA. Ce chiffre est similaire aux niveaux de l’anne dernire, ce qui suggre que peu de progrs ont t raliss.

Les priorits des organisations pour renforcer la confiance des consommateurs diffrent de celles des individus. Les consommateurs ont indiqu que leurs principales priorits taient d’obtenir des informations claires sur l’utilisation exacte de leurs donnes et de ne pas voir leurs donnes vendues des fins de marketing. la mme question, les entreprises ont indiqu que leurs principales priorits taient de se conformer aux lois sur la protection de la vie prive (25 %) et d’viter les violations de donnes (23 %). Cela suggre qu’une attention supplmentaire sur la transparence serait utile – en particulier avec les applications d’IA o il peut tre difficile de comprendre comment les algorithmes prennent leurs dcisions.

Sources : Google, Cisco

Et vous ?

Que pensez-vous de la sauvegarde automatique des conversations par Google ? Est-ce une fonctionnalit utile ou une intrusion dans votre vie prive ?

Faites-vous confiance Google pour protger vos donnes personnelles ? Quelles sont les mesures de scurit que vous attendez de la part de Google ?

Utilisez-vous Gemini ou une autre application de messagerie ? Quels sont les critres qui vous font choisir une application plutt quune autre ?

Pensez-vous que Google devrait rendre la sauvegarde des conversations optionnelle, et permettre aux utilisateurs de supprimer leurs donnes de ses serveurs ?

Quelles sont les consquences potentielles de la sauvegarde des conversations ?



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.