La science-fiction s’invite brutalement sur les champs de bataille. Des entreprises technologiques de la Silicon Valley testent actuellement des robots humanoïdes autonomes conçus pour faire la guerre à la place des humains. Une révolution militaire qui soulève d’immenses inquiétudes éthiques.
Le Phantom MK-1 a tout du cauchemar d’anticipation. Bien qu’il soit actuellement testé dans des usines et des chantiers navals d’Atlanta à Singapour, ce robot humanoïde recouvert d’acier noir et surmonté d’une visière teintée se présente comme le premier modèle spécialement développé pour la défense. Ses créateurs de la jeune pousse Foundation affirment vouloir en faire une machine capable de manier n’importe quelle arme conventionnelle, du pistolet au fusil d’assaut. L’entreprise californienne a d’ailleurs déjà décroché pour 24 millions de dollars de contrats de recherche avec l’armée américaine et a même envoyé deux de ses prototypes en Ukraine en février dernier pour des missions de reconnaissance.
« Nous pensons qu’il y a un impératif moral à envoyer ces robots à la guerre à la place des soldats », affirme Mike LeBlanc, ancien vétéran des Marines et cofondateur de l’entreprise.
Selon lui, envoyer des machines au combat permet d’épargner des vies humaines tout en évitant les traumatismes psychologiques et les crimes de guerre liés au stress de l’infanterie. Bien que les protocoles actuels du Pentagone exigent encore qu’un humain donne le feu vert avant toute action létale, une règle que l’entreprise assure vouloir respecter, les observateurs craignent que cette ultime barrière ne cède rapidement. Les robots ne ressentent ni la peur ni la fatigue et résistent parfaitement aux attaques chimiques. Le dirigeant estime que le déploiement massif de ces soldats de métal finira par annuler les avantages tactiques de chaque camp et agira comme une force de dissuasion absolue.
L’automatisation progressive de la chaîne de destruction
L’Ukraine est devenue le principal laboratoire mondial pour ces nouvelles armes. Avec près de 9 000 drones lancés chaque jour dans un conflit qui a déjà fait environ 350 000 morts selon de récentes estimations, la guerre s’automatise à une vitesse fulgurante. Les brouillages radio russes rendent souvent le pilotage à distance impossible, poussant les ingénieurs à doter les machines d’une autonomie de frappe en cas de coupure des communications.
D’autres entreprises américaines comme Scout AI travaillent d’arrache-pied pour automatiser l’intégralité du processus de neutralisation lors de démonstrations technologiques spécifiques. Leurs logiciels intègrent l’intelligence artificielle aux véhicules blindés et aux drones pour identifier, traquer et détruire une cible de façon autonome. Colby Adcock, le président de Scout AI, affirme que l’époque où des pilotes dirigeaient les engins à distance sera bientôt révolue.
Phantom MK-1 : ces caractéristiques physiques
Ce robot mesure 1,75 m pour environ 80 kg et s’équipe de 20 moteurs pour une mobilité humanoïde précise. Il supporte une charge utile de 80 kg et offre une autonomie de batterie d’environ 4 heures en usage intensif. Sa conception « camera-first » intègre des capteurs avancés pour la navigation en environnement hostile.

Des zones grises juridiques face aux risques de dérives meurtrières
Cette course à l’armement autonome terrifie les experts en géopolitique et les défenseurs des libertés civiles. Retirer l’humain de la boucle de décision abaisse dangereusement le coût politique des guerres. Si un gouvernement n’a plus à justifier le retour de cercueils recouverts du drapeau national auprès de son opinion publique, il pourrait être tenté de déclencher des conflits de manière beaucoup plus désinvolte.
« C’est une pente glissante. L’attrait de l’automatisation et de la mise à l’écart des humains est extrêmement fort », prévient Jennifer Kavanagh, directrice de l’analyse militaire pour le groupe de réflexion Defense Priorities.
À cela s’ajoutent les failles techniques inhérentes à l’intelligence artificielle. Les grands modèles de langage sont sujets aux hallucinations et intègrent parfois des biais algorithmiques bien documentés sur la reconnaissance faciale. La perspective de voir un robot lourdement armé mal interpréter une situation civile pacifique ou se faire pirater par l’ennemi met en lumière un cadre juridique encore très lacunaire en matière de responsabilité algorithmique.
« C’est une question de dignité humaine. Ces machines ne sont pas des agents moraux ou légaux et elles ne comprendront jamais les implications éthiques de leurs actes », tranche Peter Asaro, roboticien et philosophe.
Face à ce péril, la communauté internationale discute d’une architecture à deux niveaux prévoyant l’interdiction totale des armements imprévisibles et une régulation stricte exigeant un bouton d’arrêt d’urgence pour les autres systèmes. Les grandes puissances militaires traînent toutefois des pieds pour préserver leur suprématie technologique, laissant le champ libre au patron de Foundation qui ambitionne de produire 30 000 unités par an, à terme, pour inonder le marché.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.
Source :
TIME