Slack est dans la tourmente aprs que ses clients ont dcouvert que le service de messagerie aspire par dfaut leurs donnes, y compris les messages et le contenu des fichiers, pour former les modles d’IA globaux de l’entreprise. En rponse au toll suscit par la rvlation, Slack a rvis ses politiques de confidentialit et assure que les donnes des clients ne sont pas utilises pour former des modles d’IA tiers ou partages avec des fournisseurs de grands modles de langages (LLM). Cependant, Slack choue convaincre les utilisateurs et fait face des critiques acerbes, dont la plupart appellent annuler les abonnements et boycotter le service de messagerie.
Les clients de Slack ont dcouvert rcemment que la plateforme de communication collaborative utilisait leurs informations personnelles pour entraner ses modles d’IA sans avoir pralablement obtenu leur consentement explicite. Les politiques de confidentialit de Slack autorisaient la plateforme analyser les donnes des clients pour la formation de l’IA, moins qu’ils n’aient reu l’instruction de ne pas le faire. Cela signifie que pratiquement tout ce qui est partag dans les canaux Slack, y compris les messages et le contenu des fichiers, peut tre utilis pour la formation des modles d’IA propritaires de l’entreprise.
Hello from Slack! To clarify, Slack has platform-level machine-learning models for things like channel and emoji recommendations and search results. And yes, customers can exclude their data from helping train those (non-generative) ML models. Customer data belongs to the
— Slack (@SlackHQ) May 17, 2024
Slack a inscrit par dfaut tous ses utilisateurs et pour se soustraire ce programme de collecte de donnes, il faut envoyer un courriel la socit. Les implications de cette politique ont suscit des craintes parmi les utilisateurs, qui ont fait part de leur indignation. En rponse, Slack a assur que les donnes ne fuiraient pas d’un espace de travail l’autre, bien qu’il ait admis que ses modles globaux utilisent des donnes de clients. Le service a maintenant rvis ses principes de confidentialit pour apaiser l’indignation et clarifier sa position sur l’utilisation des donnes. Les principes mis jour se lisent en partie comme ci-aprs :
Aucune donne client n’est utilise pour former des modles LLM tiers. Slack ne forme pas de LLM ou d’autres modles gnratifs sur les donnes des clients, et ne partage pas les donnes des clients avec des fournisseurs de LLM.
Mais malgr cette clarification, de nombreux utilisateurs estiment que la mesure est insuffisante, car elle ne prcise pas pourquoi les utilisateurs sont automatiquement amens accepter la politique d’utilisation des donnes. Pour les utilisateurs de Slack, en particulier les organisations, le spectre de l’utilisation de leurs donnes internes pour former des modles d’IA soulve de srieuses proccupations en matire de scurit et de conformit. Mais encore, les utilisateurs ne comprennent pas pourquoi ils ont t automatiquement intgrs dans cet arrangement sans le savoir ni y consentir. Et Slack n’apporte aucune explication.
Les utilisateurs regrettent que Slack n’ait pas t clair sur ses intentions ds le dpart. Lorsque Slack a commenc utiliser les donnes de ses clients, de nombreux utilisateurs n’taient pas au courant de ce changement et auraient peut-tre voulu en tre directement informs et avoir la possibilit de refuser avant que la collecte et l’utilisation des donnes ne commencent. D’aprs les critiques, Slack a agi de la sorte, car l’entreprise tait consciente que la plupart des utilisateurs n’auraient pas autoris cette collecte. Slack rejette ces allgations, mais ne donne pas les raisons qui l’ont pouss prendre une telle initiative.
Corey Quinn, cadre chez Duckbill Group, a dclench la semaine dernire la polmique avec un post rageur demandant : je suis dsol Slack, vous faites QUOI avec les DM des utilisateurs, les messages, les fichiers, etc. ? Quinn faisait rfrence un extrait des principes de confidentialit de Slack qui dit : pour dvelopper des modles d’IA/ML, nos systmes analysent les donnes des clients (par exemple, les messages, le contenu et les fichiers) soumises Slack ainsi que d’autres informations (y compris les informations d’utilisation) telles que dfinies dans notre politique de confidentialit et dans votre contrat client .
Still amused that Slack decided to *autmatically* opt-in ingesting customer messages for them to build better ML models they deploy to all customers.
« Trust us that we do this securely and please consider NOT opting out » is their stance.
My stance is: why is this not opt-in? pic.twitter.com/BwzAgIKpYG
— Gergely Orosz (@GergelyOrosz) May 18, 2024
Slack a rpondu au billet de Quinn sur X, confirmant qu’il utilise effectivement les donnes des clients pour former certains de ces outils d’IA dans l’application. Mais l’entreprise prcise que ces donnes ne sont pas destines son offre d’IA premium, qu’elle prsente comme tant totalement isole des informations des utilisateurs. Elizabeth Wharton, avocate et fondatrice du cabinet Silver Key Strategies, a qualifi le comportement de Slack de « gchis en matire de protection de la vie prive ». Elle a galement critiqu l’entreprise pour ne pas avoir donn aux utilisateurs individuels un moyen beaucoup plus facile de se dsinscrire.
En effet, le processus d’exclusion lui-mme est galement compliqu. Les personnes ne peuvent pas se dsinscrire elles-mmes ; il faut qu’un administrateur de l’ensemble de l’organisation en fasse la demande en envoyant un courriel dont l’objet est trs prcis, comme vous pouvez le voir dans le message suivant :
Contactez-nous pour vous dsinscrire. Si vous souhaitez exclure vos donnes client des modles globaux de Slack, vous pouvez vous dsengager. Pour ce faire, demandez votre organisation, aux propritaires de l’espace de travail ou au propritaire principal de contacter notre quipe Customer Experience l’adresse « feedback@slack.com » en indiquant l’URL de votre espace de travail/organisation et en crivant en objet « Demande d’exclusion du modle global de Slack ». Nous traiterons votre demande et vous rpondrons une fois le retrait effectu.
Quelques gros bonnets sont intervenus, accumulant les critiques. Meredith Whittaker, prsidente de la Fondation, qui s’occupe du dveloppement de l’application de messagerie prive Signal, a jet l’opprobre en dclarant : nous ne collectons pas vos donnes en premier lieu, nous n’avons donc rien « exploiter » pour l’IA. Ae . Cette raction met en lumire les tensions croissantes autour de l’IA et de la protection de la vie prive, alors que les entreprises s’empressent de se surpasser les unes les autres pour dvelopper des logiciels plus intelligents. Plusieurs entreprises utilisent dj les donnes de leurs clients pour former l’IA.
Les incohrences dans les politiques de Slack n’aident pas non plus. Une section indique que l’application ne peut pas accder au contenu sous-jacent lorsqu’elle dveloppe des modles d’IA. Une autre page commercialisant les outils d’IA de Slack indique : travaillez en toute tranquillit. Vos donnes sont vos donnes. Nous ne les utilisons pas pour former l’IA de Slack. Tout fonctionne sur l’infrastructure scurise de Slack, rpondant aux mmes normes de conformit que Slack lui-mme . Toutefois, l’utilisation des donnes des utilisateurs dans la formation de modles d’IA de Slack vient contredire ces dclarations.
Un ingnieur de Slack a tent de clarifier les choses, dclarant que les rgles de confidentialit ont t crites l’origine pour le travail de recherche que la socit a fait pendant des annes avant Slack AI ». Il a admis que les rgles ont besoin d’une mise jour. Mais le plus gros problme est videmment l’approche « opt-in » par dfaut. Bien qu’elle soit courante dans la technologie, elle va l’encontre des principes de confidentialit des donnes qui consistent donner aux gens un choix explicite sur la manire dont leurs informations sont utilises. Certains critiques appellent au boycotte de Slack.
Matthew Hodgson, PDG d’Element, a dclar The Register qu’il trouve « tout fait hallucinant que Slack propose de former l’IA sur des donnes prives de clients. Il est dj assez grave que des fournisseurs de cloud comme Slack et Teams aient accs vos donnes non chiffres en premier lieu, mais les introduire ensuite dans un modle d’IA opaque et imprvisible est terrifiant . Le changement opr par Slack aurait eu lieu vers fin 2023, et le toll qu’il a suscit souligne la ncessit pour les utilisateurs de vrifier quoi servent leurs donnes, alors que l’engouement pour l’IA continue de dferler sur l’industrie technologique.
Par ailleurs, Slack n’indique pas combien de temps le processus de retrait prendra pour les clients qui ne veulent pas que leurs donnes soient utilises dans l’entranement des modles d’IA du service de messagerie. Si la rponse rapide de Slack l’indignation des utilisateurs et ses politiques rvises tmoignent d’une volont de rpondre aux proccupations, nombreux sont ceux qui plaident en faveur d’un systme d’opt-in qui donne aux clients plus de contrle sur leur volont d’adhrer ou non la politique d’utilisation des donnes de Slack.
Slack n’est pas le seul service utiliser les donnes des clients pour l’entranement des modles. Reddit s’est rapproch d’OpenAI et permet dsormais ce dernier de former ses modles d’IA sur ses messages de forum. La plateforme d’hbergement et de conception de sites Web Squarespace a discrtement mis en place une fonctionnalit permettant ses utilisateurs de refuser certains outils d’IA d’exploration de donnes, mais l’exploration de donnes est autorise par dfaut. Cette dcision a suscit des proccupations en matire de vie prive.
Zoom a galement mis jour ses conditions dutilisation pour s’octroyer le droit d’utiliser les donnes personnelles des utilisateurs pour entraner et amliorer ses algorithmes et modles d’IA. Cette dcision a suscit des critiques et des inquitudes de la part des dfenseurs de la vie prive et des experts juridiques, qui estiment quelle constitue une atteinte aux droits et au consentement des utilisateurs. Selon les critiques, le besoin de donnes pour former les modles d’IA pousse les entreprises explorer de nouvelles sources, voire la drive.
Source : Slack
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des clarifications de Slack au sujet de l’utilisation des donnes des clients pour former ses modles d’IA ?
Quid du fait que Slack utilise les donnes des organisations pour former ses modles d’IA alors qu’elles ont pay pour un service scuris ?
L’IA va-t-elle provoquer l’effondrement des acquis en matire de confidentialit et de protection de la vie prive ?
Voir aussi