Microsoft explique en dtail comment elle dveloppe l’IA de manire responsable dans son premier rapport de transparence voquant les difficults rencontres et parlant des amliorations en cours

Microsoft Defender Threat Intelligence pour cartographier l'internet, et Microsoft Defender External Attack Surface Management



Microsoft a publi son premier rapport de transparence sur l’IA responsable, dcrivant les mesures prises en 2023 pour dvelopper et dployer des technologies d’IA de manire responsable. Ce rapport s’inscrit dans le cadre de l’engagement de Microsoft crer des systmes d’IA plus srs, une promesse faite dans le cadre d’un accord volontaire avec la Maison Blanche en juillet de l’anne prcdente.

Un nouveau rapport de Microsoft dcrit les mesures prises par l’entreprise pour mettre en place des plateformes d’IA responsables l’anne dernire.

Dans son rapport de transparence sur l’IA responsable, qui couvre principalement la priode 2023, Microsoft vante ses ralisations en matire de dploiement de produits d’IA en toute scurit. Le rapport annuel sur la transparence de l’IA est l’un des engagements pris par l’entreprise aprs avoir sign un accord volontaire avec la Maison Blanche en juillet de l’anne dernire. Microsoft et d’autres entreprises ont promis de mettre en place des systmes d’IA responsables et de s’engager en faveur de la scurit.

Dans son rapport, Microsoft indique qu’elle a cr 30 outils d’IA responsable au cours de l’anne coule, qu’elle a renforc son quipe d’IA responsable et qu’elle a demand aux quipes qui crent des applications d’IA gnrative de mesurer et de cartographier les risques tout au long du cycle de dveloppement. L’entreprise indique qu’elle a ajout des certificats de contenu (Content Credential) ses plateformes de gnration d’images, ce qui permet d’apposer un filigrane sur une photo et de la marquer comme ayant t cre par un modle d’IA.

Citation Envoy par Microsoft

Outils pour cartographier et mesurer les risques

Nous nous sommes engags dvelopper des outils et des ressources permettant chaque organisation de cartographier, de mesurer et de grer les risques lis l’IA dans leurs propres applications. Nous avons galement donn la priorit l’accs libre aux outils d’IA responsable. Par exemple, en fvrier 2024, nous avons lanc un acclrateur en quipe rouge, l’outil d’identification des risques Python pour l’IA gnrative (PyRIT).

PyRIT permet aux professionnels de la scurit et aux ingnieurs en apprentissage automatique de dtecter de manire proactive les risques dans leurs applications gnratives. PyRIT acclre le travail des dveloppeurs en dveloppant leurs invites initiales de red teaming, en rpondant dynamiquement aux sorties gnres par l’IA pour continuer sonder les risques de contenu, et en notant automatiquement les sorties l’aide de filtres de contenu. Depuis sa publication sur GitHub, PyRIT a reu 1 100 toiles et a t copi plus de 200 fois par des dveloppeurs pour tre utilis dans leurs propres dpts o il peut tre modifi pour s’adapter leurs cas d’utilisation.

Aprs avoir identifi les risques avec un outil comme PyRIT, les clients peuvent utiliser les valuations de scurit dans Azure AI Studio pour effectuer des valuations avant dploiement de la susceptibilit de leur application gnrative gnrer un contenu de faible qualit ou dangereux, ainsi que pour surveiller les tendances aprs dploiement. Par exemple, en novembre 2023, nous avons publi un ensemble limit d’outils d’valuation de l’IA gnrative dans Azure AI Studio pour permettre aux clients d’valuer la qualit et la scurit de leurs applications gnratives

Des clients Azure AI mieux outills

L’entreprise explique qu’elle a donn aux clients d’Azure AI l’accs des outils qui dtectent les contenus problmatiques tels que les discours haineux, les contenus sexuels et l’automutilation, ainsi qu’ des outils permettant d’valuer les risques de scurit. Il s’agit notamment de nouvelles mthodes de dtection de jailbreak, qui ont t tendues en mars de cette anne pour inclure les injections indirectes d’invite, o les instructions malveillantes font partie des donnes ingres par le modle d’IA.

Citation Envoy par Microsoft

De nombreuses applications gnratives sont construites partir de grands modles de langage, qui peuvent commettre des erreurs, gnrer des risques de contenu ou exposer les applications d’autres types d’attaques. Bien que les approches de gestion des risques telles que les messages du systme de scurit et les filtres de contenu constituent un excellent dbut, il est galement crucial d’valuer les applications pour comprendre si les mesures d’attnuation fonctionnent comme prvu.

Avec les valuations de scurit d’Azure AI Studio, les clients peuvent valuer les rsultats des applications gnratives pour les risques de contenu tels que les contenus haineux, sexuels, violents ou lis l’automutilation. En outre, les dveloppeurs peuvent valuer leurs applications pour les risques de scurit tels que les jailbreaks. tant donn que les valuations reposent sur un ensemble de donnes de test robuste, Azure AI Studio peut utiliser des modles d’invite et un simulateur assist par l’IA pour crer des ensembles de donnes gnrs par l’IA accuse afin d’valuer les applications gnratives. Cette capacit exploite l’apprentissage et l’innovation de Microsoft Research, dvelopps et perfectionns pour soutenir le lancement de nos propres Copilots, et est maintenant disponible pour les clients dans Azure dans le cadre de notre engagement pour une innovation responsable.

L’entreprise multiplie galement ses efforts en matire de Red Teaming

L’entreprise voque galement les quipes rouges internes qui tentent dlibrment de contourner les dispositifs de scurit de ses modles d’IA, ainsi que les applications en quipe rouge pour permettre des tiers de les tester avant de lancer de nouveaux modles.

Pour mmoire, l’quipe rouge dsigne un groupe prtendant tre un ennemi. Ce groupe est missionn par une organisation pour effectuer une intrusion physique ou numrique contre celle-ci et produire un rapport afin que l’organisation puisse amliorer sa scurit. Les quipes rouges sont embauches par l’organisation. Leur travail est lgal, mais peut surprendre les employs ignorants les activits de l’quipe rouge, ou tromps par celle-ci. Certaines dfinitions de l’quipe rouge sont plus larges et incluent tout groupe, au sein d’une organisation, charg de sortir des sentiers battus et d’examiner des scnarios alternatifs considrs comme moins plausibles. L’objectif tant de protger une entreprise des fausses hypothses et de la pense de groupe.

L’quipe rouge technique se concentre sur l’attaque des rseaux informatiques. Elle peut faire face une quipe bleue, un terme dsignant les employs de la cyberscurit chargs de dfendre l’organisation contre les attaques informatiques.

Citation Envoy par Microsoft

Le red teaming, dfini l’origine comme la simulation d’attaques relles et l’exercice de techniques que les cybercriminels persistants pourraient utiliser, est depuis longtemps une pratique de scurit fondamentale chez Microsoft. En 2018, nous avons mis en place notre AI Red Team. Ce groupe d’experts interdisciplinaires qui se consacre penser comme des attaquants et sonder les applications d’IA pour dtecter les dfaillances a t la premire quipe rouge ddie l’IA dans l’industrie.

Rcemment, nous avons largi nos pratiques d’quipe rouge pour cartographier les risques en dehors des risques de scurit traditionnels, y compris ceux associs aux utilisateurs non antagonistes et ceux associs l’IA responsable, comme la gnration de contenus strotyps. Aujourd’hui, l’AI Red Team cartographie les risques lis l’IA responsable et la scurit au niveau du modle et de l’application :

  • Red teamin de modles : elle permet d’identifier comment un modle peut tre utilis mauvais escient, d’valuer ses capacits et de comprendre ses limites. Ces informations guident non seulement le dveloppement d’valuations et de mesures d’attnuation au niveau de la plateforme pour l’utilisation du modle dans les applications, mais elles peuvent galement tre utilises pour informer les futures versions du modle.
  • Red teaming d’applications : le red teaming d’applications de l’IA adopte une vue du systme, dont le modle de base est une partie. Cela permet d’identifier les dfaillances au-del du modle, en incluant les mesures d’attnuation et le systme de scurit propres l’application. Le red teaming tout au long du dveloppement d’un produit d’IA permet de mettre en vidence des risques prcdemment inconnus, de confirmer si les risques potentiels se matrialisent dans une application et d’informer sur la mesure et la gestion des risques. Cette pratique permet galement de clarifier l’tendue des capacits et des limites d’une application d’IA, d’identifier les possibilits d’utilisation abusive et de mettre en vidence les domaines approfondir.

Cependant, les units de red-teaming ont du pain sur la planche

Les dploiements de l’entreprise en matire d’IA n’ont pas t pargns par les controverses.

Lors du premier dploiement de l’IA de Bing en fvrier 2023, les utilisateurs ont constat que le chatbot nonait avec assurance des faits incorrects et, un moment donn, enseignait aux gens des insultes ethniques. En octobre, les utilisateurs du gnrateur d’images de Bing ont dcouvert qu’ils pouvaient utiliser la plateforme pour gnrer des photos de Mario (ou d’autres personnages populaires) pilotant un avion vers les tours jumelles. En janvier, des images nues profondment truques de clbrits telles que Taylor Swift ont fait le tour de X. Ces images proviendraient d’un groupe partageant des images ralises avec Microsoft Designer. Microsoft a fini par combler la faille qui permettait de gnrer ces images. l’poque, le PDG de Microsoft, Satya Nadella, avait dclar que ces images taient alarmantes et terribles .

Microsoft a licenci son quipe charge de l’thique IA

Si Microsoft se vante de ses avances en matire d’IA responsable, il faut rappeler que l’entreprise a licenci toute son quipe charge d’assurer l’utilisation thique des logiciels d’IA un moment o la grande enseigne du logiciel intensifiait son utilisation de la technologie d’apprentissage automatique. Microsoft s’est dbarrass de l’quipe thique et socit, qui tait au sein de son organisation d’intelligence artificielle, dans le cadre des 10 000 suppressions d’emplois que l’entreprise a annonces.

Le coup port cette unit particulire pourrait supprimer certaines barrires de scurit destines garantir que les produits de Microsoft qui intgrent des fonctionnalits d’apprentissage automatique respectent les normes de la mga-corporation en matire d’utilisation thique de l’IA. Et cela est survenu alors que la discussion faisait rage sur les effets des modles controverss d’intelligence artificielle sur la socit dans son ensemble.

Un engagement en faveur de l’amlioration continue

Natasha Crampton, responsable de l’IA responsable chez Microsoft, a soulign que l’IA responsable est un voyage continu sans point final dfinitif. L’IA responsable n’a pas de ligne d’arrive, nous ne considrerons donc jamais que notre travail dans le cadre des engagements volontaires en matire d’IA est termin. Mais nous avons ralis des progrs considrables depuis leur signature et nous sommes impatients de poursuivre sur notre lance cette anne , a dclar Crampton.

Alors que Microsoft navigue dans le paysage complexe du dveloppement de l’IA, son engagement amliorer et tendre ses pratiques en matire d’IA responsable reste crucial pour relever les dfis actuels et les innovations futures.

Source : Microsoft (1, 2, 3)

Et vous ?

Quels sont les principaux dfis que vous pensez que Microsoft et dautres entreprises technologiques doivent surmonter dans le dveloppement de lIA ?

Comment les entreprises peuvent-elles garantir que lIA respecte la vie prive et les donnes personnelles des utilisateurs ?

Quel rle les utilisateurs finaux devraient-ils jouer dans le dveloppement de lIA responsable ?

La transparence est-elle suffisante pour tablir la confiance dans les systmes dIA, ou faut-il des mesures rglementaires plus strictes ?

Comment pouvons-nous quilibrer linnovation technologique avec les proccupations thiques lies lIA ?

Quelles sont vos opinions sur lutilisation des Content Credentials pour les images gnres par lIA ? Est-ce une tape suffisante vers la responsabilit ?

En quoi lapproche de Microsoft en matire dIA responsable influence-t-elle votre perception de lentreprise et de ses produits ?



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.