L’intelligence artificielle serait aussi dangereuse que « les pandémies ou la guerre nucléaire », selon des leaders du secteur

L’intelligence artificielle serait aussi dangereuse que « les pandémies ou la guerre nucléaire », selon des leaders du secteur


« Limiter les risques d’extinction [de l’humanité] posés par l’intelligence artificielle [IA] devrait être une priorité mondiale, aux côtés d’autres risques de grande ampleur comme les pandémies ou la guerre nucléaire. » Cette unique phrase, au ton alarmiste, constitue la totalité du contenu de la nouvelle pétition lancée, mardi 30 mai, par 350 personnalités du secteur de l’IA.

Portée par l’ONG Center for AI Safety, sise à San Francisco, cette initiative rappelle la lettre ouverte du 28 mars demandant une « pause » des recherches avancées dans le domaine, signée par plus d’un millier de personnalités, dont le PDG de Tesla, Elon Musk. Mais le texte de mardi est également endossé par des dirigeants de la filière : Sam Altman, PDG d’OpenAI, créateur du robot conversationnel ChatGPT, Demis Hassabis, PDG de Google-DeepMind, James Manyika, vice-président principal chargé des questions de régulation et d’éthique de l’IA chez Google, Eric Horvitz, directeur scientifique de Microsoft, ou encore Dario Amodei, ancien d’OpenAI et fondateur d’Anthropic, une jeune pousse soutenue par Google.

Parmi les autres signataires se trouvent nombre des promoteurs de la lettre demandant une pause de six mois, dont Max Tegmark, de l’ONG Future of Life Institute, ou Stuart Russell, du Center for Human-Compatible AI, un laboratoire de l’université de Berkeley. Apparaissent également certains chercheurs de premier plan récemment convertis à l’idée que l’IA pose un risque existentiel pour l’humanité, dont Geoffrey Hinton, qui a démissionné de Google, et Yoshua Bengio, de l’université de Montréal.

Tous deux sont considérés comme des « pères » de l’IA moderne et ont reçu le prestigieux prix Alan Turing, aux côtés de Yann LeCun. Ce dernier, patron de la recherche en IA chez Meta, se veut toutefois beaucoup plus rassurant et optimiste, ne comprenant pas pourquoi les logiciels d’intelligence artificielle s’en prendraient aux humains.

Offensive d’OpenAI

Pour quelle raison des hiérarques d’un secteur en plein essor appelleraient-ils les Etats du monde entier à considérer leur technologie comme un péril majeur et à la réguler en conséquence ? L’initiative semble contre-intuitive, mais elle peut s’expliquer, si l’on se rappelle les débuts d’OpenAI.

A l’époque, en 2015, Elon Musk alertait déjà depuis plusieurs mois dans les médias sur les risques de l’IA, justement jugée « potentiellement plus dangereuse que les bombes nucléaires ». Une « intelligence artificielle générale », supérieure à celle des humains, pourrait, à dessein ou par erreur, leur devenir hostile, argumentaient certains. Cela n’a pas empêché M. Musk de cofonder OpenAI, dont le but originel est de faire advenir une telle IA « de façon bénéfique pour l’humanité ».

Il vous reste 53.84% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.