Microsoft lance un chatbot d’IA pour les espions, un modle d’IA gnrative bas sur GPT-4 conu spcifiquement pour les agences de renseignement amricaines qui opre dconnect d’internet

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Microsoft a introduit un modle dIA gnratif bas sur GPT-4, spcialement conu pour les agences de renseignement des tats-Unis, qui fonctionne dconnect dInternet. Ce dveloppement marque la premire fois que Microsoft dploie un modle de langage majeur dans un environnement scuris. L’IA a t conue pour permettre aux agences d’espionnage d’analyser des informations top secrtes sans risques de connectivit et pour permettre des conversations scurises avec un chatbot similaire ChatGPT et Microsoft Copilot. Mais il peut galement induire les fonctionnaires en erreur s’il n’est pas utilis correctement, en raison des limites inhrentes la conception des modles de langage de l’IA.

GPT-4 est un modle de langage tendu (LLM) cr par OpenAI qui tente de prdire les tokens (fragments de donnes codes) les plus probables dans une squence. Il peut tre utilis pour crer des codes informatiques et analyser des informations. Lorsqu’il est configur comme un chatbot (comme ChatGPT), GPT-4 peut alimenter des assistants d’IA qui conversent la manire d’un tre humain. Microsoft dispose d’une licence d’utilisation de cette technologie dans le cadre d’un accord conclu en change d’investissements importants dans OpenAI.

Selon le rapport de Bloomberg, le nouveau service d’IA (qui n’a pas encore de nom public) rpond l’intrt croissant des agences de renseignement pour l’utilisation de l’IA gnrative dans le traitement des donnes classifies, tout en attnuant les risques de violations de donnes ou de tentatives de piratage. ChatGPT fonctionne normalement sur des serveurs cloud fournis par Microsoft, ce qui peut entraner des risques de fuite et d’interception de donnes. Dans le mme ordre d’ides, la CIA a annonc l’anne dernire son intention de crer un service similaire ChatGPT, mais cet effort de Microsoft serait un projet distinct.

Un service dj oprationnel

William Chappell, directeur technique de Microsoft pour les missions stratgiques et la technologie, a indiqu Bloomberg que le dveloppement du nouveau systme a ncessit 18 mois de travail pour modifier un superordinateur d’IA dans l’Iowa. Le modle GPT-4 modifi est conu pour lire les fichiers fournis par ses utilisateurs, mais ne peut pas accder l’internet ouvert. C’est la premire fois que nous disposons d’une version isole, c’est–dire non connecte l’internet, sur un rseau spcial accessible uniquement par le gouvernement amricain , a dclar Chappell Bloomberg.

Le nouveau service a t activ jeudi et est maintenant disponible pour environ 10 000 personnes de la communaut du renseignement, prt tre test par les agences concernes. Selon Chappell, il rpond actuellement des questions . Chappell a ajout que ce nouveau service d’IA, qui est bas sur le GPT-4 LLM d’OpenAI, peut lire des donnes mais ne peut pas en tirer d’enseignements.

Des limitations potentielles

L’utilisation de GPT-4 pour analyser des donnes importantes prsente un grave inconvnient : elle peut potentiellement confabuler (inventer) des rsums inexacts, tirer des conclusions errones ou fournir des informations inexactes ses utilisateurs. tant donn que les rseaux neuronaux d’IA forms ne sont pas des bases de donnes et qu’ils fonctionnent sur la base de probabilits statistiques, ils ne constituent pas de bonnes ressources factuelles, moins qu’ils ne soient complts par un accs externe des informations provenant d’une autre source, au moyen d’une technique telle que la gnration augmente par rcupration (RAG).

Compte tenu de cette limitation, il est tout fait possible que le GPT-4 puisse dsinformer ou induire en erreur les services de renseignement amricains s’il n’est pas utilis correctement. Nous ne savons pas quel contrle sera exerc sur le systme, quelles seront les limites de son utilisation, ni comment il pourra tre vrifi pour s’assurer de son exactitude.

L’outil doit encore tre test et approuv

Bien que le nouveau service d’IA espion de Microsoft soit actuellement en ligne, il devra encore tre test et approuv par les services de renseignement amricains. On ne sait pas encore combien de temps durera cette priode de test. On ne sait pas non plus quel prix Microsoft compte facturer au gouvernement pour ce service d’IA espionne.

En mars, le bureau de la cyberscurit de la Chambre des reprsentants des tats-Unis a interdit l’utilisation de l’assistant d’IA gnrative Copilot de Microsoft par les membres de son personnel. La Chambre des reprsentants a dclar qu’il y avait un risque pour les utilisateurs en raison de la menace de fuite de donnes de la Chambre vers des services en nuage non approuvs par la Chambre .

Microsoft a annonc en novembre 2023 son intention de lancer une version de Copilot pour le travail gouvernemental au cours de l’t 2024. Depuis, l’entreprise a seulement dclar qu’elle prvoyait toujours de lancer ce service Copilot pour le gouvernement dans le courant de l’anne 2024.

L’administration Biden et ses rapports avec l’IA

Rcemment, le prsident Joe Biden a allou pas moins de 3,3 milliards de dollars l’application et au dveloppement de l’IA dans les agences fdrales amricaines et au sein du gouvernement.

Citation Envoy par Maison Blanche

Promouvoir la responsabilit technologique et l’innovation responsable dans le domaine de l’intelligence artificielle (IA)

Faire progresser le dveloppement et l’utilisation srs, scuriss et dignes de confiance de l’IA.

En 2023, le prsident a publi le dcret 14110, Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (dveloppement et utilisation srs, scuriss et dignes de confiance de l’intelligence artificielle), afin de garantir que l’Amrique ouvre la voie en saisissant les promesses et en grant les risques de l’intelligence artificielle. Le dcret tablit de nouvelles normes pour la sret et la scurit de l’IA, protge la vie prive des Amricains, fait progresser l’quit et les droits civils, dfend les consommateurs et les travailleurs, promeut l’innovation et la concurrence, fait progresser le leadership amricain dans le monde, et bien plus encore. Le budget prvoit plus de 3 milliards de dollars dans toutes les agences afin de dvelopper, tester, acheter et intgrer de manire responsable des applications d’IA transformatrices dans l’ensemble du gouvernement fdral et de soutenir la mise en uvre du dcret de l’administration. Le budget propose galement 300 millions de dollars en financement obligatoire pour augmenter le financement des agences pour l’IA, la fois pour faire face aux risques majeurs et pour faire progresser son utilisation pour le bien public.

Selon le Washington Times, pour recruter des informaticiens et des spcialistes des donnes afin d’tudier l’IA, le prsident Biden a demand au Congrs d’autoriser 32 millions de dollars pour la vague de talents en matire d’IA . Dans le cadre de ce projet, des personnes engages seront recrutes pour utiliser l’IA afin d’amliorer les services gouvernementaux, d’laborer des lois et des politiques intelligentes protgeant la vie prive, la scurit et les droits des personnes, et de faire progresser la recherche et le dveloppement dans le domaine de l’IA afin de maintenir les tats-Unis la pointe de l’innovation en matire d’IA.

En outre, Biden a demand 70 millions de dollars pour permettre aux agences d’embaucher des responsables de l’IA, qui superviseraient le travail des informaticiens et veilleraient leur scurit.

Le projet de budget prvoit galement que le ministre du commerce recevra 50 millions de dollars pour crer l’AI Safety Institute, qui fournira des lignes directrices pour l’utilisation de l’IA. Ces lignes directrices consisteront notamment sparer les informations cres par l’IA de celles cres par les humains et laborer des mesures de protection de la vie prive.

Le ministre de l’nergie prvoit galement de tirer parti des fonds allous l’IA, affirmant que l’IA l’aidera dans sa lutte contre le changement climatique. L’Administration nationale de la scurit nuclaire recevrait galement 37 millions de dollars pour tudier l’utilisation abusive de l’IA en cas de dangers chimiques, biologiques ou nuclaires, et le ministre des anciens combattants recevrait 10 millions de dollars pour la recherche mdicale et prothtique.

Par ailleurs, l’utilisation finale de l’IA par l’arme amricaine pour diverses applications, notamment la planification des batailles dans StarCraft II, fait l’objet de nombreux travaux de recherche et de dveloppement.

Au dpart, l’utilisation de l’IA par le gouvernement suscitait beaucoup d’inquitude et de rticence, mais elle a ensuite t considre comme une technologie prcieuse explorer et appliquer ventuellement pour des besoins futurs.

Sources : Bloomberg, Maison Blanche

Et vous ?

Quelles implications voyez-vous dans lutilisation dun chatbot IA par les agences de renseignement ?

Comment pensez-vous que labsence de connexion Internet influence la scurit et lefficacit de ce chatbot IA ?

Quels avantages un chatbot IA dconnect pourrait-il offrir par rapport un systme connect Internet ?

En quoi la capacit de confabulation de GPT-4 pourrait-elle affecter la fiabilit des analyses de donnes classifies ?

Quelles mesures de scurit supplmentaires devraient tre prises lors de lutilisation de lIA dans le traitement des informations sensibles ?

Comment les agences de renseignement peuvent-elles vrifier lexactitude des informations fournies par un chatbot IA ?

Quel rle les humains devraient-ils jouer dans linterprtation des donnes analyses par lIA ?



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.