Microsoft a publi son premier rapport de transparence sur l’IA responsable, dcrivant les mesures prises en 2023 pour dvelopper et dployer des technologies d’IA de manire responsable. Ce rapport s’inscrit dans le cadre de l’engagement de Microsoft crer des systmes d’IA plus srs, une promesse faite dans le cadre d’un accord volontaire avec la Maison Blanche en juillet de l’anne prcdente.
Un nouveau rapport de Microsoft dcrit les mesures prises par l’entreprise pour mettre en place des plateformes d’IA responsables l’anne dernire.
Dans son rapport de transparence sur l’IA responsable, qui couvre principalement la priode 2023, Microsoft vante ses ralisations en matire de dploiement de produits d’IA en toute scurit. Le rapport annuel sur la transparence de l’IA est l’un des engagements pris par l’entreprise aprs avoir sign un accord volontaire avec la Maison Blanche en juillet de l’anne dernire. Microsoft et d’autres entreprises ont promis de mettre en place des systmes d’IA responsables et de s’engager en faveur de la scurit.
Dans son rapport, Microsoft indique qu’elle a cr 30 outils d’IA responsable au cours de l’anne coule, qu’elle a renforc son quipe d’IA responsable et qu’elle a demand aux quipes qui crent des applications d’IA gnrative de mesurer et de cartographier les risques tout au long du cycle de dveloppement. L’entreprise indique qu’elle a ajout des certificats de contenu (Content Credential) ses plateformes de gnration d’images, ce qui permet d’apposer un filigrane sur une photo et de la marquer comme ayant t cre par un modle d’IA.
Des clients Azure AI mieux outills
L’entreprise explique qu’elle a donn aux clients d’Azure AI l’accs des outils qui dtectent les contenus problmatiques tels que les discours haineux, les contenus sexuels et l’automutilation, ainsi qu’ des outils permettant d’valuer les risques de scurit. Il s’agit notamment de nouvelles mthodes de dtection de jailbreak, qui ont t tendues en mars de cette anne pour inclure les injections indirectes d’invite, o les instructions malveillantes font partie des donnes ingres par le modle d’IA.
L’entreprise multiplie galement ses efforts en matire de Red Teaming
L’entreprise voque galement les quipes rouges internes qui tentent dlibrment de contourner les dispositifs de scurit de ses modles d’IA, ainsi que les applications en quipe rouge pour permettre des tiers de les tester avant de lancer de nouveaux modles.
Pour mmoire, l’quipe rouge dsigne un groupe prtendant tre un ennemi. Ce groupe est missionn par une organisation pour effectuer une intrusion physique ou numrique contre celle-ci et produire un rapport afin que l’organisation puisse amliorer sa scurit. Les quipes rouges sont embauches par l’organisation. Leur travail est lgal, mais peut surprendre les employs ignorants les activits de l’quipe rouge, ou tromps par celle-ci. Certaines dfinitions de l’quipe rouge sont plus larges et incluent tout groupe, au sein d’une organisation, charg de sortir des sentiers battus et d’examiner des scnarios alternatifs considrs comme moins plausibles. L’objectif tant de protger une entreprise des fausses hypothses et de la pense de groupe.
L’quipe rouge technique se concentre sur l’attaque des rseaux informatiques. Elle peut faire face une quipe bleue, un terme dsignant les employs de la cyberscurit chargs de dfendre l’organisation contre les attaques informatiques.
Cependant, les units de red-teaming ont du pain sur la planche
Les dploiements de l’entreprise en matire d’IA n’ont pas t pargns par les controverses.
Lors du premier dploiement de l’IA de Bing en fvrier 2023, les utilisateurs ont constat que le chatbot nonait avec assurance des faits incorrects et, un moment donn, enseignait aux gens des insultes ethniques. En octobre, les utilisateurs du gnrateur d’images de Bing ont dcouvert qu’ils pouvaient utiliser la plateforme pour gnrer des photos de Mario (ou d’autres personnages populaires) pilotant un avion vers les tours jumelles. En janvier, des images nues profondment truques de clbrits telles que Taylor Swift ont fait le tour de X. Ces images proviendraient d’un groupe partageant des images ralises avec Microsoft Designer. Microsoft a fini par combler la faille qui permettait de gnrer ces images. l’poque, le PDG de Microsoft, Satya Nadella, avait dclar que ces images taient alarmantes et terribles .
Microsoft a licenci son quipe charge de l’thique IA
Si Microsoft se vante de ses avances en matire d’IA responsable, il faut rappeler que l’entreprise a licenci toute son quipe charge d’assurer l’utilisation thique des logiciels d’IA un moment o la grande enseigne du logiciel intensifiait son utilisation de la technologie d’apprentissage automatique. Microsoft s’est dbarrass de l’quipe thique et socit, qui tait au sein de son organisation d’intelligence artificielle, dans le cadre des 10 000 suppressions d’emplois que l’entreprise a annonces.
Le coup port cette unit particulire pourrait supprimer certaines barrires de scurit destines garantir que les produits de Microsoft qui intgrent des fonctionnalits d’apprentissage automatique respectent les normes de la mga-corporation en matire d’utilisation thique de l’IA. Et cela est survenu alors que la discussion faisait rage sur les effets des modles controverss d’intelligence artificielle sur la socit dans son ensemble.
Un engagement en faveur de l’amlioration continue
Natasha Crampton, responsable de l’IA responsable chez Microsoft, a soulign que l’IA responsable est un voyage continu sans point final dfinitif. L’IA responsable n’a pas de ligne d’arrive, nous ne considrerons donc jamais que notre travail dans le cadre des engagements volontaires en matire d’IA est termin. Mais nous avons ralis des progrs considrables depuis leur signature et nous sommes impatients de poursuivre sur notre lance cette anne , a dclar Crampton.
Alors que Microsoft navigue dans le paysage complexe du dveloppement de l’IA, son engagement amliorer et tendre ses pratiques en matire d’IA responsable reste crucial pour relever les dfis actuels et les innovations futures.
Et vous ?
Quels sont les principaux dfis que vous pensez que Microsoft et dautres entreprises technologiques doivent surmonter dans le dveloppement de lIA ?
Comment les entreprises peuvent-elles garantir que lIA respecte la vie prive et les donnes personnelles des utilisateurs ?
Quel rle les utilisateurs finaux devraient-ils jouer dans le dveloppement de lIA responsable ?
La transparence est-elle suffisante pour tablir la confiance dans les systmes dIA, ou faut-il des mesures rglementaires plus strictes ?
Comment pouvons-nous quilibrer linnovation technologique avec les proccupations thiques lies lIA ?
Quelles sont vos opinions sur lutilisation des Content Credentials pour les images gnres par lIA ? Est-ce une tape suffisante vers la responsabilit ?
En quoi lapproche de Microsoft en matire dIA responsable influence-t-elle votre perception de lentreprise et de ses produits ?