Eric Schmidt, l’ancien patron du géant Google, redoute le développement sauvage de l’intelligence artificielle. Considérant que l’IA est aussi dangereuse que l’arme nucléaire, il recommande aux puissances mondiales, comme les États-Unis ou la Chine, de s’entendre autour d’un traité de dissuasion. Explications.
Ce 22 juillet 2022, Eric Schmidt, dirigeant de Google de 2001 à 2011, a participé au forum sur la sécurité d’Aspen (États-Unis). Lors d’une conférence, l’ancien président exécutif d’Alphabet a comparé l’intelligence artificielle (IA) aux bombes nucléaires.
« We are not ready for the negotiations that we need. » – @ericschmidt #AspenSecurity pic.twitter.com/As749t6ZyU
— Aspen Security Forum (@AspenSecurity) July 22, 2022
Partant de cette comparaison, Schmidt recommande que toutes les grandes puissances, comme les États-Unis et la Chine, œuvrent à la création d’une relation de confiance au sujet de l’intelligence artificielle. L’homme d’affaires estime que cette relation doit se rapprocher de la politique de dissuasion nucléaire mise en place par de nombreux pays, dont la France.
Sur le même thème : Comment une intelligence artificielle a appris à jouer à Minecraft grâce à 70 000 heures de vidéos YouTube
Eric Schmidt plaide pour une politique de dissuasion en matière d’IA
Née des cendres de la Seconde Guerre mondiale, cette stratégie militaire consiste à détenir des armes nucléaires en cas d’attaque nucléaire provenant de l’étranger. La perspective d’une riposte nucléaire dissuade ainsi l’ennemi de se servir de ses propres missiles. Dans le cadre de cette théorie, l’assaillant s’abstient d’utiliser l’arme nucléaire, ce qui maintient la paix entre les nations.
Lors de la guerre froide, cette politique a abouti sur l’interdiction des essais nucléaires secrets. Concrètement, tout pays qui organise des essais nucléaires doit prévenir les puissances étrangères. Cette règle évite qu’un essai soit interprété comme une attaque et déclenche une riposte.
« Dans les années 50 et 60, nous avons finalement créé un monde où il y avait une règle de “sans surprise” concernant les essais nucléaires. […] Il faut commencer à mettre en place un système dans lequel, parce que vous vous armez ou que vous vous préparez, vous déclenchez la même chose alors l’autre côté. Nous n’avons personne qui travaille là-dessus, et pourtant l’IA est si puissante », explique Eric Schmidt.
Cette politique doit être appliquée à l’intelligence artificielle, qui serait aussi dangereuse que l’armement nucléaire, souligne le milliardaire. L’ancien leader de Google regrette qu’un système analogue à celui de la dissuasion nucléaire ne soit pas mis en place pour encadrer le développement de l’IA. Sans barrière, l’essor de cette technologie pourrait avoir des conséquences néfastes.
Lors de sa prise de parole, le philanthrope a imaginé un futur dans lequel les États-Unis et la Chine devront s’entendre concernant le développement de l’IA. Schmidt invite ces deux puissances mondiales, qui investissent énormément dans des technologies basées sur l’IA, à mettre en place un traité de dissuasion similaire à celui du nucléaire.
Un fonds pour relever les défis de l’IA
En miroir de Schmidt, Sundar Pichai, l’actuel PDG du géant Google, estime que l’intelligence artificielle doit absolument être encadrée. Dans plusieurs entretiens publiés ces dernières années, il compare l’IA au feu ou à l’électricité.
« Les progrès de l’intelligence artificielle n’en sont encore qu’à leurs débuts, mais je considère qu’il s’agit de la technologie la plus profonde sur laquelle l’humanité travaillera et nous devons nous assurer que nous l’exploitons au profit de la société. […] Le feu tue aussi des gens. Nous avons appris à le contrôler pour le bien de l’humanité, mais nous avons aussi appris à en maitriser les mauvais côtés », expliquait notamment Sundar Pichai en 2018 dans une interview accordée à Recode.
Pour encadrer le développement de l’IA, Eric Schmidt a créé le fonds AI2050 en février dernier. Réservé aux universitaires, ce fonds va injecter 125 millions de dollars pour financer « la recherche sur les “problèmes difficiles” en matière d’intelligence artificielle ». L’initiative va notamment se concentrer sur les biais de programmation des algorithmes, les conflits géopolitiques et les dérives de la technologie.