La fonctionnalit Expriences connectes de Microsoft Office, active par dfaut, a t critique pour avoir potentiellement utilis le contenu utilisateur pour entraner l’IA sans l’expliquer clairement. Microsoft nie utiliser les donnes des clients pour entraner l’IA, affirmant qu’elle est destine aux fonctions requises par Internet, comme la co-cration de documents. Les critiques mettent en avant le contrat de services de Microsoft, qui accorde l’entreprise des droits sur le contenu utilisateur. Pour se dsinscrire, il faut accder des paramtres spcifiques.
Aux utilisateurs d’Office, Microsoft propose des expriences connectes qui analysent votre contenu : Les expriences qui analysent votre contenu sont des expriences qui utilisent le contenu de votre bureau pour vous fournir des recommandations de conception, des suggestions de rvision, des aperus de donnes et d’autres fonctions similaires. Par exemple, le Traducteur ou le Concepteur PowerPoint . Cette fonctionnalit, active par dfaut, a t accuse de rcuprer le contenu cr par les utilisateurs pour former ses systmes d’IA internes.
L’expert Linux @nixcraft sur X a qualifi les Expriences connectes de contraires l’thique car le nom de la fonctionnalit ne dit pas qu’il s’agit uniquement de formation l’IA. La base de connaissances de Microsoft indique que les expriences connectes sont conues pour vous permettre de crer, de communiquer et de collaborer plus efficacement en analysant votre contenu. Il n’est fait aucune mention de l’utilisation de l’IA ou des donnes pour les fonctionnalits Copilot ou pour former les modles d’IA de Microsoft.
Attention : Microsoft Office, comme de nombreuses entreprises ces derniers mois, a sournoisement activ une fonction opt-out qui rcupre vos documents Word et Excel pour entraner ses systmes d’intelligence artificielle internes. Cette fonction est active par dfaut et vous devez dcocher manuellement une case pour la dsactiver. Si vous tes un crivain qui utilise MS Word pour rdiger des contenus propritaires (articles de blog, romans ou tout autre travail que vous avez l’intention de protger par des droits d’auteur et/ou de vendre), vous voudrez dsactiver cette fonction immdiatement.
Plusieurs mdias dans la presse spcialise ont repris ces allgations, notant que dans le cadre de son fonctionnement normal, l’utilitaire comporte une fonction sournoise dans laquelle elle recueille automatiquement des donnes partir de fichiers Word et Excel pour entraner les modles d’IA de l’entreprise . La collecte de donnes est apparemment active par dfaut, ce qui signifie que le contenu des utilisateurs peut tre utilis pour entraner les algorithmes d’IA, moins qu’il ne soit spcifiquement dsactiv. La dsactivation elle-mme serait un processus trs alambiqu .
Selon l’un des rapports, ce paramtre par dfaut permet Microsoft d’utiliser toutes sortes de documents, qu’il s’agisse d’articles, de romans ou d’autres uvres destines tre protges par le droit d’auteur ou des fins commerciales, sans consentement explicite .
Microsoft Connected Experiences collecte vos fichiers Word et Excel des fins d’entranement l’IA. Pourquoi ne pas parler de formation l’IA ? Pourquoi utiliser de tels mots ? Il s’agit d’une pratique contraire l’thique suivie par une entreprise pesant des milliards de dollars. Comment cela peut-il tre lgal ? Je suis bien content de ne pas avoir Windows OS ou MS Office.
Microsoft Connected Experiences means they collect your Word and Excel files for AI training. Why not call it AI training? Why use such words? This is an unethical practice followed by a trillion-dollar corporation. How is this even legal? I am so glad that I dont have Windows
— nixCraft 🐧 (@nixcraft) November 24, 2024
Les consquences sont normes pour tous ceux qui utilisent ces outils bien connus pour gnrer du contenu propritaire, qu’il s’agisse de documents crits ou, peut-tre, de donnes financires sensibles. Le problme est que lorsqu’un lment de contenu est utilis pour former l’une des IA actuelles, comme le Copilot de Microsoft, une sorte d’empreinte est laisse dans l’algorithme. Lorsqu’un utilisateur diffrent demande des informations un moment donn dans le futur, il est possible que votre contenu, aussi sensible soit-il, ou les informations propritaires qu’il contient, fassent surface sous une forme ou une autre dans la rponse de l’IA gnrative.
Microsoft a rpondu ces accusations via le compte officiel @Microsoft365 sur les rseaux sociaux, en niant ces allgations. Nous n’utilisons pas les donnes des clients pour former les LLM , a dclar Microsoft. Selon l’entreprise, Microsoft Connected Experiences ne concerne pas les outils d’IA gnrative ni la formation. Ce paramtre active uniquement les fonctionnalits ncessitant un accs Internet, comme la co-cration d’un document.
In the M365 apps, we do not use customer data to train LLMs. This setting only enables features requiring internet access like co-authoring a document. https://t.co/o9DGn9QnHb
— Microsoft 365 (@Microsoft365) November 25, 2024
Cependant, comme le souligne Tom’s Hardware, Microsoft 365 et Microsoft Connected Experiences sont couverts par le contrat de services de Microsoft, qui confre l’entreprise tous les droits de proprit intellectuelle sur l’ensemble de votre contenu.
Dans la mesure ncessaire pour vous fournir les Services et d’autres, pour vous protger et protger les Services, et pour amliorer les produits et services Microsoft, vous accordez Microsoft une licence de proprit intellectuelle mondiale et libre de droits pour utiliser votre Contenu, par exemple, pour faire des copies, conserver, transmettre, reformater, afficher et distribuer via des outils de communication votre Contenu sur les Services , peut-on lire dans le contrat.
La raction de Microsoft
Microsoft a dmenti les affirmations selon lesquelles il alimente en informations prives de grands modles de langage. Les donnes de Microsoft 365 peuvent dsormais tre automatiquement tlcharges et traites pour offrir des expriences connectes qui, selon Microsoft, vous permettront de crer, de communiquer et de collaborer plus efficacement .
Le 21 octobre, Microsoft a publi sur son blog des informations dtailles sur l’exprience connecte, qui semblent avoir voqu le souvenir de Recall, un outil qui prend des clichs de l’cran des utilisateurs toutes les quelques secondes et qui a t dcrit comme un cauchemar en matire de protection de la vie prive .
Enfouie au plus profond de la section confidentialit des paramtres d’Office 365 se trouve une option d’exprience connecte qui est active par dfaut pour les clients amricains (il faut vrifier pour les autres pays). Dans ce menu, on peut galement lire en gras : Votre vie prive est importante . Si les utilisateurs ne choisissent pas expressment de dsactiver cette fonctionnalit, les donnes des documents sont rcoltes et traites – ce qui a dclench la panique l’ide qu’elles pourraient tre utilises pour entraner Copilot et d’autres modles d’IA.
Des allgations concernant le scrapping de donnes par Microsoft ont circul sur les mdias sociaux au cours du week-end
Cela ne peut pas tre vrai , a crit Florian Roth, responsable de la recherche chez Nextron Systems. Alors que les entreprises sont occupes appliquer des politiques d’IA pour protger les donnes confidentielles, Microsoft active discrtement cette fonctionnalit par dfaut et l’intitule Votre vie prive est importante .
Il est incroyable que Microsoft ait discrtement activ cette fonction alors que tout le monde se concentrait sur sa fonction d’IA ‘Recall’ , poursuit-il.
Microsoft reste vague sur ce qu’elle fait des donnes qu’elle recueille, mme s’il ne fait aucun doute qu’elle les recueille.
Les expriences connectes qui analysent votre contenu sont des expriences qui utilisent votre contenu Office pour vous fournir des recommandations de conception, des suggestions d’dition, des informations sur les donnes et des fonctionnalits similaires , explique Microsoft.
Avec les applications et services Web, les rseaux sociaux, les moteurs de recherche et bien d’autres choses encore, plusieurs acteurs majeurs du secteur de la technologie et de l’IA ont t accuss juste titre d’avoir rcupr des donnes utilisateur pour entraner l’IA. Le PDG de Microsoft AI, Mustafa Suleyman, a rcemment dclar que tout contenu sur le Web est un usage quitable pour la formation, la reproduction et plus encore de l’IA. Tout le reste, y compris les donnes que les gens choisissent activement de ne pas partager ou de cocher une case ne pas rcuprer , est une zone grise . De plus, il appartient aux tribunaux de dcider quelles donnes sont interdites.
Revenons Microsoft Connected Experiences. L’entreprise a dclar qu’elle n’utilisait pas vos documents Word pour entraner des modles d’IA. Nanmoins, si vous souhaitez vous dsinscrire, vous devez accder Fichier > Options > Centre de gestion de la confidentialit > Paramtres du Centre de gestion de la confidentialit > Options de confidentialit > Paramtres de confidentialit > Expriences connectes facultatives > Dcochez la case : Activer les expriences connectes facultatives .
Que sont les expriences connectes ?
En parcourant les expriences de Microsoft, nous n’avons pas trouv une qui mentionne explicitement l’entranement de donnes d’IA (mais n’hsitez pas le prciser si vous avez trouv le contraire). D’ailleurs, certains semblent ne pas avoir trouv la formulation qui expliquerait cet enchainement.
That’s not the wording I’m seeing. pic.twitter.com/8IrVfEip3e
— Pharaoh (@HalalPharaoh) November 24, 2024
Les cas d’utilisation mentionns qui analysent votre contenu comprennent l’application automatique d’tiquettes de sensibilit ou une fonction qui scanne les cartes de visite pour en extraire des informations.
Nanmoins, un utilisateur inquiet a pos une question sur la politique de Microsoft en matire de formation l’IA sur son forum d’assistance, o un agent a admis que sa position n’tait pas tout fait claire. Il a crit :
ma connaissance, Microsoft n’a pas fourni de dtails dtaills accessibles au public sur les types spcifiques d’informations personnelles utilises pour former ses modles d’IA. Les informations relatives l’utilisation des donnes pour l’entranement de l’IA sont souvent vagues en raison de la nature des politiques de confidentialit et des conditions de service.
Cependant, nous ne pouvons trouver que des indications gnrales sur la manire dont Microsoft traite les donnes personnelles. Mais pour des raisons de confidentialit, il se peut qu’elle ne fournisse pas de dtails prcis sur les donnes spcifiquement utilises pour l’apprentissage de l’IA.
Dans sa dclaration de confidentialit, Microsoft indique : Dans le cadre de nos efforts pour amliorer et dvelopper nos produits, nous pouvons utiliser vos donnes pour dvelopper et entraner nos modles d’IA.
Sur une page expliquant sa politique en matire d’entranement l’IA, la socit promet qu’elle n’entrane pas les modles d’IA Copilot partir de nos clients commerciaux, ou de toute donne provenant d’utilisateurs connects un compte organisationnel M365/EntraID ou d’utilisateurs connects avec des abonnements personnels ou familiaux M365 .
Un porte-parole de Microsoft a explicitement dmenti les allgations selon lesquelles l’entreprise utilisait les donnes M365 pour entraner des modles d’IA et a dclar : Dans les applications grand public et commerciales de Microsoft 365, les modles d’IA ne sont pas utiliss : Dans les applications grand public et commerciales de Microsoft 365, Microsoft n’utilise pas les donnes des clients pour entraner des modles de langage de grande taille sans leur autorisation.
Sources : expriences connectes dans Office, Microsoft Privacy Statement, Microsoft Community, politique de Microsoft sur la formation de l’IA
Et vous ?
Quelle lecture faites-vous de la situation ?
Comment ce genre de pratiques affecte-t-il la rputation de Microsoft auprs de ses utilisateurs et du grand public ?
Pensez-vous que ce scandale potentiel incitera Microsoft changer de politique, ou lentreprise continuera-t-elle sur cette voie si les critiques restent limites ?