L’IA, ça sert, d’abord, à faire la guerre

L'IA, ça sert, d'abord, à faire la guerre



Les chatbots, ça va bien 5 minutes.

Depuis le début de l’année, la société Mistral AI multiplie les annonces en lien avec les partenaires du monde de la défense.

La start-up a dévoilé hier un nouveau partenariat avec la société allemande Helsing, spécialisée dans le développement logiciel à destination du monde militaire.

Équiper les drones et les jets

Ce partenariat porte principalement sur le développement de « Vision-Language-Action models ». Ce type de modèle d’IA doit appuyer les avancées en matière de vision par ordinateur avec celles des grands modèles de langage (LLM). L’idée ? Améliorer les interfaces de contrôle robotique. Dans le cas de Helsing, le développement de ces modèles spécifiques permettra « aux plateformes de défense de mieux analyser leur environnement, d’interagir naturellement avec les opérateurs et de faciliter des prises de décision plus rapides et plus fiables ».

Helsing cite notamment le développement de systèmes destinés aux drones d’attaque déployés en Ukraine. Ainsi que pour les équipements de guerre électronique sur le modèle d’avion Eurofighter. Mistral AI mettra à disposition ses modèles génératifs pour la conception de ces nouveaux outils.

Depuis trois ans, les conflits en Ukraine, puis à Gaza, ont démontré l’usage exponentiel de l’I.A. dans la conduite de l’engagement des armées mentionnait ce samedi l’émission de France Culture Affaires étrangères. Et de citer l’exemple des drones turcs utilisés au départ par les Ukrainiens, et qui ont été remplacés par des engins maison, plus performants.

Avec ce nouvel accord, Mistral AI confirme ses ambitions dans le domaine de la défense. Le ministère français des armées a aussi récemment annoncé un partenariat avec la société française. Il travaillera notamment avec la nouvelle agence du ministère dédiée au développement de l’IA dans le monde de la défense.

Haro sur la défense

En France, le sujet est donc observé de près par le ministère des armées. Le Monde mentionne qu’un nouveau rapport du comité d’éthique de la défense a été remis au ministre Sébastien Lecornu courant janvier. Les auteurs du rapport plaident pour un usage « proportionné », assorti d’une clarification des responsabilités des différentes parties prenantes du développement et de l’usage de ces outils. Il propose aussi « une plus grande automatisation de ces systèmes », selon l’appréciation du commandement.

Les champions mondiaux de l’IA lorgnent eux aussi de plus en plus vers le secteur de la défense.

Aux États Unis, le géant du secteur OpenAI a annoncé en fin d’année 2024 un partenariat avec la société Anduril, entreprise américaine concurrente de l’allemand Helsing. Et Google a fait marche arrière la semaine dernière sur sa politique en matière d’intelligence artificielle et de défense. Depuis 2018, l’entreprise s’interdisait d’utiliser ses technologies d’intelligence artificielle pour le développement d’armes ou d’outils de surveillance. Ce n’est plus le cas aujourd’hui.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.