« Le catastrophisme court à la catastrophe. » Cette moquerie publiée sur X émane du directeur de la recherche en intelligence artificielle chez Meta (Facebook, Instagram) Yann LeCun. Cet optimiste de l’IA a ironisé sur les propos récents de Nick Bostrom, une des figures du camp des alarmistes de l’IA – souvent surnommés « doomers » ou catastrophistes −, connu pour son livre Superintelligence (Dunod, 2017), dans lequel il spéculait sur les risques d’une IA qui mettrait en danger l’humanité.
« Si le changement d’attitude du public et des politiques continue l’année prochaine, puis la suivante, puis la suivante, nous risquons de voir imposée une interdiction permanente de l’IA, ce qui serait une très mauvaise chose », s’est inquiété le philosophe suédois dans un podcast. M. LeCun y voit un revirement car M. Bostrom a participé à populariser l’idée de « risque existentiel » posé par l’IA, auprès du grand public et d’entrepreneurs comme Elon Musk ou Sam Altman, le patron d’OpenAI, créatrice de ChatGPT, débarqué le 17 novembre puis réintégré le 22 dans son entreprise.
L’affaire Sam Altman est plutôt une défaite pour les courants de pensée dont se réclamaient les membres du conseil d’administration d’OpenAI qui ont tenté de l’évincer : le long-termisme (qui vise à éviter les risques existentiels pour l’humanité, dont l’IA) et l’altruisme efficace, dont il est issu (qui vise à rationaliser au maximum l’impact de ses dons). « Le renvoi de Sam Altman a montré l’influence de l’altruisme efficace et de l’idée associée de ralentir le développement de l’IA, mais son retour a montré les limites de ce courant », écrit le Wall Street Journal. Les catastrophistes de l’IA ont perdu une bataille, renchérit l’analyste des secteurs médias et tech Benedict Evans, dans une tribune dans le Financial Times.
Défaite de l’altruisme efficace
« J’étais fan de l’altruisme efficace, mais c’est devenu sectaire. Je suis content de faire des dons pour sauver le maximum de vies en Afrique mais pas pour payer des gens de la tech à se tourmenter sur les risques de voir une IA nous transformer en trombones », a écrit sur X Stephen Pinker, professeur à Harvard, en référence à l’hypothèse, formulée par M. Bostrom, selon laquelle une IA spécialisée dans la création de trombones pourrait tuer l’humanité en utilisant toutes les ressources terrestres ou en s’en prenant à elle si elle s’opposait à sa mission.
« Il y a un changement d’ambiance », a relevé, amusée, Nirit Weiss-Blatt, l’autrice de The Techlash and Tech Crisis Communication (« revers et communication de crise pour les entreprises de la tech », non traduit, Emerald Publishing Limited, 2021) citant des forums consacrés à l’altruisme efficace où des membres s’inquiètent d’un « retournement de la Silicon Valley » contre le mouvement.
Il vous reste 40% de cet article à lire. La suite est réservée aux abonnés.