Max Tegmark, physicien et chercheur en apprentissage automatique, affirme qu’il faut mettre un terme aux progrs de la technologie de l’IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles gnrales (AGI) ou des superintelligences. Il ajoute qu’il n’y a pas autant de temps que nous le pensions pour rflchir tout cela.
Max Tegmark est un physicien sudo-amricain, chercheur en apprentissage automatique et auteur. Il est surtout connu pour son livre Life 3.0, qui dcrit ce quoi le monde pourrait ressembler mesure que l’intelligence artificielle continue de s’amliorer. Tegmark est professeur au Massachusetts Institute of Technology (MIT) et prsident du Future of Life Institute. Dans son livre, Tegmark soutient que les risques de l’IA ne proviennent pas de la malveillance ou d’un comportement conscient en soi, mais plutt d’un mauvais alignement des objectifs de l’IA sur ceux des humains.
En effet, lIA est une avance technologique majeure qui a le potentiel de transformer les industries, de remodeler les emplois et de stimuler la productivit conomique. Cependant, elle nest pas sans risque. En 2023, pour contrer les effets ngatifs de lIA, Max Tegmark a organis une lettre ouverte. Cette lettre appelait une pause de six mois dans les expriences dIA et a t signe par des milliers de personnalits du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur dApple. Selon Tegmark, le dveloppement incontrl de lIA par quelques entreprises met en pril lavenir de la socit.
Il a soulign que lIA promet de nombreux avantages incroyables, mais le dveloppement irrflchi et non contrl de systmes de plus en plus puissants, sans aucune surveillance, met en danger notre conomie, notre socit et nos vies. Il a appel lurgence de normes de scurit en matire dIA pour viter que cela ne se transforme pas en une course au sommet. La rglementation est essentielle pour garantir la scurit de linnovation, afin quune poigne dentreprises spcialises dans lIA ne mette pas en pril notre avenir commun.
Dans la lign de ses propos, rcemment, Max Tegmark a affirm qu’il faut mettre un terme aux progrs de la technologie de l’IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles gnrales (AGI) ou des superintelligences.
Max Tegmark says we need to draw a line in the progress of AI technology and build only AI that is our tool and not AGI or superintelligence pic.twitter.com/XfFkhTQRle
— Tsarathustra (@tsarnick) November 11, 2024
Le point de vue de Max Tegmark est intressant, et il est en gnral rejoint par les chercheurs en IA. Un chercheur en scurit de l’IA, le Dr Roman V. Yampolskiy, soutenu par Elon Musk, a averti que l’IA ne peut actuellement tre contrle en toute scurit, mettant en garde contre le dveloppement de cette technologie sans preuve de son contrle. Yampolskiy propose des solutions, notamment classer les IA comme contrlables ou incontrlables et envisager des moratoires ou des interdictions partielles. Il souligne l’importance de poursuivre la recherche sur la scurit de l’IA pour minimiser les risques tout en maximisant les avantages potentiels.
Dans le mme ordre d’ide, le PDG d’Arm craint galement que les humains ne perdent le contrle de l’IA. Il met en avant l’importance d’avoir un moyen de neutraliser ou d’arrter le systme. Il souligne la ncessit d’un moyen de neutralisation ou d’arrt du systme. Ces avis confirment que l’AGI pourrait tre soit une prosprit sans prcdent, soit une catastrophe existentielle, et la prudence et la prvoyance sont ncessaires pour guider nos pas dans ce domaine complexe.
Et vous ?
Pensez-vous que ces dclarations sont crdibles ou pertinentes ?
Quel est votre avis sur le sujet ?
Voir aussi :