Microsoft vient de prendre une décision étonnante concernant l’usage de ChatGPT en interne. Le géant américain a interdit à ses employés de se servir de l’IA générative d’OpenAI… qui est pourtant utilisée dans une grande partie de ses outils, dont Bing Chat. Une erreur est apparemment à l’origine de l’interdiction.
Microsoft s’est lancé dans la course à l’IA en nouant un partenariat d’envergure avec OpenAI, la start-up à l’origine de ChatGPT. Grâce à cet accord à plusieurs milliards de dollars, le géant de Redmond peut s’appuyer sur la technologie développée par OpenAI. Microsoft n’a d’ailleurs pas attendu longtemps avant d’enrichir ses produits et ses services avec l’IA générative.
Par exemple, on trouve désormais de l’IA dans les logiciels de la suite Office et dans Bing, le moteur de recherche de Microsoft. Celui-ci intègre à présent Bing Chat, une version personnalisée de ChatGPT. Bref, Microsoft donne massivement accès à ChatGPT à sa clientèle par le biais de ses services et outils.
À lire aussi : pourquoi un gang de pirates s’attaque à ChatGPT
Pas de ChatGPT pour les employés Microsoft ?
En parallèle, Microsoft a pourtant décidé de couper l’accès de ses employés au chatbot. Il y a quelques jours, l’entreprise américaine a pris la décision de bloquer ChatGPT pour ses salariés, du moins temporairement, rapporte CNBC. Sur les ordinateurs du groupe, il n’était plus possible de converser avec le robot. Dans une mise à jour apparue sur une plateforme interne, Microsoft justifie l’interdiction par l’apparition d’un problème de sécurité :
« En raison de problèmes de sécurité et de données, un certain nombre d’outils d’IA ne sont plus disponibles pour les employés ».
Le groupe américain rappelle à ses employés que ChatGPT, bien qu’il soit proposé par un partenaire, reste un service tiers, qu’il convient donc de manœuvrer avec prudence. L’avertissement est valable « pour tous les autres services d’IA externes, tels que Midjourney ou Replika ».
« S’il est vrai que Microsoft a investi dans OpenAI et que ChatGPT a intégré des mesures de protection pour éviter une utilisation inappropriée, le site Web est néanmoins un service externe tiers », souligne Microsoft, ajoutant que « cela signifie que vous devez faire preuve de prudence en l’utilisant en raison des risques de confidentialité et de sécurité ».
Cet avis laisse penser que Microsoft redoute que des employés divulguent par mégarde des informations confidentielles à ChatGPT. D’autres entreprises, comme Apple ou Samsung, ont d’ailleurs pris des mesures analogues pour protéger leurs données les plus sensibles. Pour rassurer les professionnels, OpenAI a notamment lancé un mode incognito, qui empêche le modèle linguistique GPT de se nourrir des informations communiquées par ses interlocuteurs. La start-up a aussi et surtout lancé une offre pour entreprises, plus regardante sur la confidentialité des données, ChatGPT Enterprise. Là encore, le modèle n’aspire pas les données communiquées.
Initialement, Microsoft avait aussi décidé de bloquer l’accès à Canva, le service en ligne qui rivalise avec Adobe Photoshop. Récemment, l’outil s’est enrichi avec une suite d’outils de création dopés à l’IA générative. Comme Midjourney ou Dall-E, Canva peut désormais générer des images à la demande. Par ailleurs, l’outil dispose d’un chatbot, animé par le modèle GPT d’OpenAI, qui peut imaginer des textes. Par la suite, Canva a disparu de l’avertissement émis par l’entreprise à destination de ses travailleurs.
Microsoft évoque un test lancé par erreur
Peu après que CNBC a rapporté la décision prise par Microsoft, ChatGPT a été débloqué sur les ordinateurs de l’entreprise. Contacté par le média, Microsoft pointe du doigt une simple erreur. La firme affirme avoir mené « un test système pour les grands modèles linguistiques », qui animent les chatbots. C’est ce test, essentiel à la maintenance logicielle, et déployé par mégarde, qui a bloqué l’accès à ChatGPT et consorts.
« Nous testions les systèmes de contrôle des terminaux pour les LLM (NDLR : Large Language Model) et les avons activés par inadvertance pour tous les employés », relate Microsoft au média.
La société assure avoir « rétabli le service peu de temps après avoir identifié l’erreur ». Microsoft ajoute encourager « ses employés et ses clients à utiliser des services tels que Bing Chat Enterprise et ChatGPT Enterprise qui offrent des niveaux plus élevés de protection de la vie privée et de la sécurité ». Tout est bien qui finit bien.
Source :
CNBC