Le chercheur en IA Max Tegmark estime qu’il faut mettre un terme aux progrs de l’IA et empcher la cration des AGI En veillant ce que l’IA ne devienne qu’un outil et non une superintelligence

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Max Tegmark, physicien et chercheur en apprentissage automatique, affirme qu’il faut mettre un terme aux progrs de la technologie de l’IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles gnrales (AGI) ou des superintelligences. Il ajoute qu’il n’y a pas autant de temps que nous le pensions pour rflchir tout cela.

Max Tegmark est un physicien sudo-amricain, chercheur en apprentissage automatique et auteur. Il est surtout connu pour son livre Life 3.0, qui dcrit ce quoi le monde pourrait ressembler mesure que l’intelligence artificielle continue de s’amliorer. Tegmark est professeur au Massachusetts Institute of Technology (MIT) et prsident du Future of Life Institute. Dans son livre, Tegmark soutient que les risques de l’IA ne proviennent pas de la malveillance ou d’un comportement conscient en soi, mais plutt d’un mauvais alignement des objectifs de l’IA sur ceux des humains.

En effet, lIA est une avance technologique majeure qui a le potentiel de transformer les industries, de remodeler les emplois et de stimuler la productivit conomique. Cependant, elle nest pas sans risque. En 2023, pour contrer les effets ngatifs de lIA, Max Tegmark a organis une lettre ouverte. Cette lettre appelait une pause de six mois dans les expriences dIA et a t signe par des milliers de personnalits du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur dApple. Selon Tegmark, le dveloppement incontrl de lIA par quelques entreprises met en pril lavenir de la socit.

Il a soulign que lIA promet de nombreux avantages incroyables, mais le dveloppement irrflchi et non contrl de systmes de plus en plus puissants, sans aucune surveillance, met en danger notre conomie, notre socit et nos vies. Il a appel lurgence de normes de scurit en matire dIA pour viter que cela ne se transforme pas en une course au sommet. La rglementation est essentielle pour garantir la scurit de linnovation, afin quune poigne dentreprises spcialises dans lIA ne mette pas en pril notre avenir commun.

Dans la lign de ses propos, rcemment, Max Tegmark a affirm qu’il faut mettre un terme aux progrs de la technologie de l’IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles gnrales (AGI) ou des superintelligences.

Citation Envoy par Max Tegmark

Utiliser l’IA pour amliorer l’ducation, utiliser l’IA pour gurir le cancer, etc., c’est ce que j’appelle l’IA outil : l’IA que l’on peut, si l’on est sage, fabriquer de manire ce qu’elle devienne notre outil et que nous n’ayons jamais nous inquiter d’en perdre le contrle.

Il y a aussi, indpendamment de cela, la qute de l’AGI, la superintelligence. En fait, il s’agit de la nouvelle espce dont Alan Turing nous avait prvenus que nous perdrions le contrle. Et mme s’il semble tout fait insens que nous nous prcipitions pour la construire, c’est l’objectif commercial dclar d’OpenAI, de Google DeepMind, d’Anthropic et d’autres entreprises. Vous pouvez lire sur le site web d’Anthropic que leur objectif est de rendre tout travail humain obsolte, en gros. Et nous avons entendu dire que de nombreuses personnes, dont le PDG d’Anthropic, Dario Amodei, pensent que cela se produira dans deux ans.

Nous n’avons donc pas autant de temps que nous le pensions pour rflchir tout cela. Pour moi, la solution tout cela est vraiment trs, trs vidente et nous saute aux yeux. C’est la mme solution que nous, en tant que socit, avons adopte maintes reprises pour toutes les autres technologies. Nous avons invent toutes sortes de biotechnologies et nous avons trac une ligne. Nous avons dit, d’un point de vue moral, la pnicilline c’est bien, les armes biologiques non, le clonage humain non.

Pour toute autre technologie, nous aurons une FDA ou une FAA ou une sorte de normes de scurit qui devront tre respectes avant que la technologie ne soit diffuse dans le monde. C’est le cas pour tous les domaines, l’exception de l’IA, l’heure actuelle en Amrique.

Le point de vue de Max Tegmark est intressant, et il est en gnral rejoint par les chercheurs en IA. Un chercheur en scurit de l’IA, le Dr Roman V. Yampolskiy, soutenu par Elon Musk, a averti que l’IA ne peut actuellement tre contrle en toute scurit, mettant en garde contre le dveloppement de cette technologie sans preuve de son contrle. Yampolskiy propose des solutions, notamment classer les IA comme contrlables ou incontrlables et envisager des moratoires ou des interdictions partielles. Il souligne l’importance de poursuivre la recherche sur la scurit de l’IA pour minimiser les risques tout en maximisant les avantages potentiels.

Dans le mme ordre d’ide, le PDG d’Arm craint galement que les humains ne perdent le contrle de l’IA. Il met en avant l’importance d’avoir un moyen de neutraliser ou d’arrter le systme. Il souligne la ncessit d’un moyen de neutralisation ou d’arrt du systme. Ces avis confirment que l’AGI pourrait tre soit une prosprit sans prcdent, soit une catastrophe existentielle, et la prudence et la prvoyance sont ncessaires pour guider nos pas dans ce domaine complexe.

Et vous ?

Pensez-vous que ces dclarations sont crdibles ou pertinentes ?

Quel est votre avis sur le sujet ?

Voir aussi :

Des scientifiques esprent acclrer le dveloppement de l’AGI avec un rseau de supercalculateurs dont le premier nud sera bientt dploy, mais le projet suscite le scepticisme et plusieurs proccupations

Selon un groupe de chercheurs en IA, les LLM actuels ne mneront pas l’AGI, mais les robots dots d’une IA qui se dveloppent dans le monde 3D pourraient le faire

Le gouvernement US doit agir rapidement et de manire dcisive pour viter les risques de scurit nationale dcoulant de l’IA qui pourrait provoquer une extinction la hauteur de la menace

Exode chez OpenAI : prs de la moiti du personnel charg de la scurit de l’AGI a quitt l’entreprise. Sam Altman, qui a rclam une rglementation de l’IA, s’y oppose lorsqu’elle est implmente





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.