« Continuer à développer des IA va mener à la disparition de l’humanité »

ia


Dans une tribune publiée sur le site du Time Magazine, un chercheur et théoricien spécialisé dans l’intelligence artificielle explique les risques liés au développement trop rapide de l’IA. Il n’hésite pas à évoquer la possibilité d’une disparition de l’humanité.

Eliezer Yudkowsky, 43 ans, dirige les recherches au Machine Intelligence Research Institute (MIRI), une association à but non lucratif spécialisée dans l’intelligence artificielle, dont le but est de faire connaître les dangers et intérêts potentiels de l’IA dans le futur. Il dresse un tableau sombre de l’avenir de l’humanité si l’intelligence artificielle continue d’évoluer à cette vitesse.

Franchir des lignes critiques sans s’en apercevoir

Alors que des centaines de scientifiques réclament une pause d’au moins six mois dans les recherches sur l’IA, Yudkowsky invite les dirigeants et experts du secteur à tout arrêter pour une durée indéterminée, sous peine de passer un seuil critique au-delà duquel il sera impossible de revenir en arrière. Pour le chercheur américain, « il est tout à fait possible qu’un laboratoire de recherche franchisse des lignes critiques sans s’en apercevoir ».

Selon lui, cette « ligne critique » est représentée par le développeur d’une IA à l’intelligence surhumaine qui mènerait, dans les circonstances actuelles, à la fin de l’humanité. Pour Yudkowsky, il est tout à fait possible de survivre en créant quelque chose de beaucoup plus intelligent que nous, mais cela nécessite « de la précision, de la préparation et de nouvelles connaissances scientifiques » que nous n’avons pas actuellement.

« Sans cette précision et cette préparation, le résultat le plus probable est une IA qui ne fait pas ce que nous voulons et ne se soucie pas de nous ni de la vie sensible en général. »

Pour illustrer la situation dans laquelle se retrouverait l’humanité, le scientifique utilise plusieurs métaphores. Deux d’entre elles sont « l’australopithèque essayant de combattre l’Homo sapiens » et « le 11ᵉ siècle essayant de combattre le 21ᵉ siècle ».

L’IA surhumaine hostile pourrait ne pas rester cantonnée aux ordinateurs. Yudkowsky rappelle qu’il est aujourd’hui possible d’envoyer des chaînes d’ADN par e-mail à des laboratoires qui produiront des protéines à la demande, permettant à l’IA de créer une forme de vie artificielle.

« Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent peu de temps après. »

Une absence de plan

Eliezer Yudkowsky pointe également l’absence de plan des entreprises derrières les IA si un tel scénario devait arriver.

« L’intention ouvertement déclarée d’OpenAI est de faire en sorte que certaines futures IA fassent nos devoirs d’alignement de l’IA. Le simple fait d’entendre ce plan devrait suffire à faire paniquer toute personne sensée. L’autre grand laboratoire d’IA, DeepMind, n’a aucun plan. »

S’il admet que les IA actuelles ne font probablement qu’imiter le discours sur la conscience de soi à partir des données d’entraînement, il note aussi le peu d’informations que nous avons sur les composants internes de ces systèmes. Cet état « d’ignorance » est, selon lui, d’autant plus inquiétant si ChatGPT-5 fait un bon aussi important que celui observé entre GPT-3 et GPT-4.

« Si vous ne pouvez pas être sûr de créer une IA consciente de soi, c’est alarmant non seulement à cause des implications morales, mais aussi parce qu’être incertain signifie que vous n’avez aucune idée de ce que vous faites. C’est dangereux et vous devriez arrêter. »

Le PDG d’OpenAI disait lui-même avoir « un peu peur », tout en rappelant que cela restait « un outil sous le contrôle des humains ». Pour Yudkowsky, il faudrait au moins 30 ans pour résoudre le problème lié la sécurité de l’intelligence surhumaine. Pour le chercheur, le moratoire sur l’intelligence artificielle doit être indéfini et mondial, sans aucune exception, y compris pour les gouvernements ou les militaires.

« Nous ne sommes pas sur la bonne voie pour être préparés dans un délai raisonnable. Il n’y a pas de plan. Les progrès dans les capacités de l’IA sont largement en avance sur les progrès de l’alignement de l’IA ou même sur les progrès dans la compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir. Fermez tout. »

Source :

Time



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.