Le Pentagone a présenté pour la première fois Victor, un prototype d’assistant interne nourri par des données de missions réelles, conçu pour aider ses soldats à retrouver plus vite les informations utiles sur le terrain. Ce nouvel outil promet de réduire les erreurs répétées d’une brigade à l’autre et d’accélérer l’accès au savoir tactique déjà accumulé par l’institution.
Baptisé Victor, ce prototype se présente sous une forme inattendue. L’interface développée par le Combined Arms Command ressemble à un forum de discussion couplé à un chatbot, VictorBot. Son objectif est d’éviter que les soldats aient à répéter les mêmes erreurs stratégiques à chaque mission. Si un militaire cherche, par exemple, comment configurer un système de guerre électromagnétique, l’outil génère une réponse et renvoie vers des publications et commentaires validés par d’autres membres des forces armées.
Une mémoire numérique forgée par les missions
Contrairement aux outils grand public, Victor s’appuie uniquement sur des données internes et confidentielles de l’armée américaine. Alex Miller, le directeur de la technologie de l’armée, explique que le projet a déjà absorbé plus de 500 bases de données et s’appuie sur les enseignements tirés de missions récentes, notamment la guerre Russie-Ukraine et l’opération Epic Fury. L’objectif est de faire remonter rapidement les informations les plus utiles, sans obliger les soldats à fouiller dans des documents dispersés ou obsolètes.
« Nous avons toutes ces leçons tirées de missions comme la guerre russo-ukrainienne et l’opération Epic Fury, il y a une énorme quantité de connaissances disponibles », explique le directeur de la technologie de l’armée américaine Alex Miller.
L’armée veut aussi faire évoluer la plateforme vers une version multimodale. À terme, les soldats pourront y soumettre des images ou des vidéos prises sur le terrain afin d’obtenir des analyses plus complètes. Le système doit également limiter les erreurs en citant ses sources, un peu comme le font désormais certaines IA grand public.
Victor n’est d’ailleurs pas le seul projet de ce type au sein de l’armée américaine. La technologie d’Anthropic aurait joué un rôle central dans la planification d’opérations en Iran, via un système développé par Palantir. Cette collaboration avait d’ailleurs débouché sur un bras de fer tendu entre Anthropic et le Pentagone sur les limites acceptables de l’IA militaire. Ces initiatives illustrent une tendance de fond : l’intégration accélérée de ces outils dans les opérations militaires réelles, bien au-delà du simple stade expérimental.
Les limites de l’outil
Le projet n’est pas exempt de risques. Paul Scharre, ancien militaire américain et analyste en sécurité, estime que la tendance des modèles de langage à vouloir plaire à leur interlocuteur peut devenir problématique dans un contexte militaire, surtout pour l’analyse de renseignements. Si une réponse semble convaincante mais repose sur une mauvaise interprétation, l’erreur peut coûter cher.
La montée en puissance de ces systèmes pose aussi une autre question : celle de la sécurité. Plus l’outil devient autonome, plus il doit être protégé contre les erreurs, les détournements et les failles. L’armée américaine voit pourtant dans Victor une étape importante vers une adoption plus large de ce type d’outil dans ses tâches internes, des usages de back-office jusqu’aux futurs systèmes d’aide à la décision.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.
Source :
Wired