M. Altman, d’OpenAI, entrevoit la perspective d’une « superintelligence » d’ici huit ans et d’une nouvelle ère de prospérité qui en résulterait. Tiernan Ray/ZDNET
D’ici huit ans seulement, l’intelligence artificielle (IA) pourrait déboucher sur ce que l’on appelle la « superintelligence », selon Sam Altman, le PDG d’OpenAI.
« Il est possible que nous ayons une superintelligence dans quelques milliers de jours. Cela prendra peut-être plus de temps, mais je suis sûr que nous y arriverons », a écrit M. Altman dans un essai intitulé « L’âge de l’intelligence », sur un site web à son nom. Ce texte semble être le seul contenu du site à ce jour.
Sam Altman utilise le terme de « superintelligence ». Il a tendance à assimiler la superintelligence à la quête générale, dans les universités et l’industrie, d’une « intelligence générale artificielle » (AGI). C’est-à-dire d’un ordinateur capable de raisonner aussi bien, voire mieux, qu’un être humain.
« Un bond spectaculaire dans la prospérité humaine »
Dans cet essai de 1 100 mots, M. Altman plaide en faveur de la diffusion de l’IA au plus grand nombre. Elle doit rendre possible « un bond spectaculaire dans la prospérité humaine ».
« À l’avenir, la vie de chacun pourra être meilleure qu’elle ne l’est aujourd’hui. La prospérité à elle seule ne rend pas nécessairement les gens heureux – il y a beaucoup de riches malheureux – mais elle améliorerait de manière significative la vie des gens dans le monde entier ».
L’essai de M. Altman ne contient pas beaucoup de détails techniques et se contente de quelques affirmations à l’emporte-pièce sur l’IA :
- L’IA est l’aboutissement de « milliers d’années de découvertes scientifiques et de progrès technologiques », qui ont culminé avec l’invention et le perfectionnement continu des puces électroniques.
- Les formes d' »apprentissage profond » (Deep Learning) de l’IA qui ont rendu possible l’IA générative ont très bien fonctionné, malgré les commentaires des sceptiques.
- Une puissance de calcul de plus en plus grande fait progresser les algorithmes d’apprentissage profond qui continuent à résoudre les problèmes, de sorte que « l’IA va s’améliorer ».
- Il est essentiel de continuer à accroître l’infrastructure informatique afin de diffuser l’IA au plus grand nombre.
- L’IA ne détruira pas les emplois, mais permettra de nouveaux types de travail et conduira à des avancées scientifiques jamais réalisées auparavant, ainsi qu’à des aides personnelles, telles que des tuteurs personnalisés pour les étudiants.
Partialité de l’IA
L’idée même d’une superintelligence va à l’encontre de nombreux spécialistes de l’IA, comme Gary Marcus, qui affirme que l’intelligence artificielle générale est loin d’arriver, si tant est qu’elle soit réalisable.
L’idée d’Altman selon laquelle la montée en puissance de l’IA est le principal moyen d’améliorer l’IA est controversée. Yoav Shoham, éminent spécialiste de l’IA et entrepreneur, a déclaré à ZDNET le mois dernier que l’augmentation de la capacité de calcul ne suffirait pas à stimuler l’IA. M. Shoham préconise plutôt l’exploration scientifique en dehors de l’apprentissage profond.
Le point de vue optimiste d’Altman ne mentionne pas non plus les nombreux problèmes de partialité de l’IA soulevés par les spécialistes de la technologie. Ni la consommation d’énergie des centres de données d’IA qui se développe rapidement et qui, de l’avis de beaucoup, représente un risque environnemental sérieux.
« Il n’y a aucune chance que nous puissions développer les énergies renouvelables assez rapidement pour répondre à la demande de l’IA »
L’écologiste Bill McKibbon, par exemple, écrit qu' »il n’y a aucune chance que nous puissions développer les énergies renouvelables assez rapidement pour répondre à ce type de demande supplémentaire » de l’IA, et que « dans un monde rationnel, face à une situation d’urgence, nous repousserions l’expansion de l’IA pour l’instant ».
L’essai d’Altman tombe à point nommé puisqu’il fait suite à la publication récente d’importantes critiques de l’IA. Il s’agit notamment de Taming Silicon Valley de Marcus, publié ce mois-ci par MIT Press, et de AI Snake Oil, par Arvind Narayanan et Sayash Kapoor, chercheurs en informatique à Princeton, publié ce mois-ci par Princeton University Press.
Dans Taming Silicon Valley, Gary Marcus met en garde contre les risques importants que représentent les systèmes d’IA génératifs échappant à tout contrôle sociétal :
Dans le pire des cas, une IA peu fiable et peu sûre pourrait conduire à des catastrophes de masse, allant du chaos dans les réseaux électriques à une guerre accidentelle ou à des flottes de robots déchaînés. De nombreuses personnes pourraient perdre leur emploi. Les modèles commerciaux de l’IA générative ignorent les droits d’auteur, la démocratie, la sécurité des consommateurs et l’impact sur le changement climatique. Et parce qu’elle s’est répandue si rapidement, avec si peu de surveillance, l’IA générative est en fait devenue une vaste expérience incontrôlée sur l’ensemble de notre population.
Stratégie marketing
M. Marcus reproche à plusieurs reprises à M. Altman d’utiliser le battage médiatique pour affirmer les priorités de l’OpenAI, notamment en promouvant l’arrivée imminente de l’AGI. Un coup de maître a consisté à dire que le conseil d’administration de l’OpenAI se réunirait pour déterminer quand l’intelligence artificielle générale « aurait été atteinte » », écrit Marcus.
Et personne ou presque n’a demandé à Altman pourquoi l’importante question scientifique de savoir quand l’AGI serait atteinte « serait « décidée » par un conseil d’administration plutôt que par la communauté scientifique ».
Dans leur livre, AI Snake Oil, qui est une dénonciation cinglante du battage médiatique sur l’IA, Narayanan et Kapoor attirent spécifiquement l’attention sur les remarques d’Altman concernant la réglementation de l’IA, l’accusant de se livrer à une forme de manipulation, connue sous le nom de « capture réglementaire », pour éviter toute contrainte réelle sur le pouvoir de son entreprise :
Plutôt que d’établir des règles significatives pour l’industrie, l’entreprise [OpenAI] cherche à faire porter le fardeau à ses concurrents tout en évitant de modifier sa propre structure. Les fabricants de tabac ont tenté quelque chose de similaire lorsqu’ils ont fait pression pour étouffer l’action gouvernementale contre les cigarettes dans les années 1950 et 1960.
Il reste à voir si Altman élargira ses remarques via son site web ou si l’essai est un épiphénomène.