Difficile d’accorder une confiance totale à l’IA générative quand celle-ci va fouiner dans des dossiers qui lui sont spécifiquement interdits. Microsoft, pourtant attendu au tournant sur la sécurité de ses outils, a laissé Copilot résumer des courriels auxquels il n’aurait jamais dû accéder. Le problème a depuis été corrigé.
Oups. Microsoft a confirmé que Copilot résumait depuis fin janvier des e-mails confidentiels dans Microsoft 365, en contournant les politiques de prévention de pertes de données (DLP) utilisées par les entreprises et les organisations pour protéger leurs informations sensibles. Le bug, détecté le 21 janvier, concerne plus spécifiquement l’onglet « travail » de la fonction de chat de Copilot dans la suite bureautique.
Faux pas pour Copilot
Cela permettait donc à Copilot d’accéder et de résumer des courriels stockés dans les dossiers « brouillons » et « envoyés » des utilisateurs… y compris les messages explicitement étiquetés confidentiels qui sont censés interdire l’accès à ce type d’outils IA. « Les messages électroniques des utilisateurs auxquels une étiquette de confidentialité a été appliquée sont traités de manière incorrecte par le chat de Microsoft 365 Copilot », a confirmé l’éditeur.
Microsoft a confirmé qu’une « erreur de code » était è l’origine du bug, et qu’un correctif est en phase de déploiement depuis le début du mois de février. L’entreprise ne fournit pas, en revanche, de calendrier pour la résolution complète du problème, et n’indique pas non plus le nombre d’utilisateurs ou d’organisations touchés. L’ampleur de l’impact pourra évoluer durant le temps de l’enquête.
Copilot Chat fait partie des nouveaux et nombreux outils IA que Microsoft intègre au chausse-pieds dans tous ses logiciels et services. L’outil a ainsi fait son apparition en septembre 2025 dans Word, PowerPoint, Excel, Outlook et OneNote dans la suite Microsoft 365 pour les clients entreprise.
Microsoft n’a pas mis de temps à réagir, ce qui est une bonne nouvelle. Mais la bourde montre qu’il est encore bien difficile de faire une confiance aveugle envers l’IA générative tant que les problèmes de sécurité de base ne sont pas réglés.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.
Source :
BleepingComputer