Il faut « mettre en pause » l’avancée de l’intelligence artificielle, réclame dans une lettre ouverte parue mardi 28 mars un millier d’experts et chercheurs du secteur, dont Elon Musk, le PDG de Tesla. Ceux-ci souhaitent suspendre pendant six mois les recherches sur les systèmes plus puissants que GPT-4, le nouveau modèle de traitement du langage lancé mi-mars par OpenAI, l’entreprise à l’origine du robot conversationnel ChatGPT − et qu’Elon Musk a cofondée. La « pause » devrait servir à élaborer de meilleurs garde-fous pour ces logiciels, jugés « dangereux pour l’humanité ».
« Ces derniers mois ont vu les laboratoires d’intelligence artificielle s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne − pas même leurs créateurs − ne peut comprendre, prédire ou contrôler de manière fiable », s’inquiètent les signataires, en référence aux annonces d’OpenAI et son partenaire Microsoft, mais aussi celles de Google ou Meta, ainsi que de nombreuses start-ups.
« Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, et nous remplacer ? », demandent les auteurs.
Parmi les signataires, on trouve l’un des pères de l’intelligence artificielle moderne, Yoshua Bengio, de l’université de Montréal. Mais aussi des figures d’entreprises de la « tech » : le PDG de StabilityAI Emad Mostaque, ainsi que trois chercheurs de Deepmind, filiale de Google, ou des cofondateurs d’Apple, Pinterest ou Skype.
« Sans aucun contrôle éthique »
Le texte est également soutenu par plusieurs chercheurs qui tirent de longue date la sonnette d’alarme sur les risques de l’IA, tout en souhaitant son essor : Max Tegmark, du Future of Life Institute, qui héberge la lettre, Stuart Russel de l’université de Berkeley, etc.
Plusieurs Français sont signataires, dont le spécialiste d’intelligence artificielle Raja Chatila, professeur émérite à la Sorbonne et membre du groupe de travail du Comité national pilote d’éthique du numérique, auquel le ministre délégué au numérique, Jean-Noël Barrot, a demandé un avis sur l’essor des programmes comme ChatGPT. « Tout ce qui se passe actuellement dans l’IA a lieu sans aucun vrai contrôle éthique ou légal. Des entreprises déploient sur le web des outils qui ont des effets néfastes », explique celui a signé « à titre personnel ». Sont aussi présents des essayistes critiques de la tech en général, comme Tristan Harris, du Center for Humane Technology ou Yuval Noah Harari, auteur de Sapiens.
Il vous reste 49.32% de cet article à lire. La suite est réservée aux abonnés.