OpenAI aurait fait une dangereuse percée en IA générale

Microsoft ajoute un copilote pour tout


La jeune entreprise OpenAI a fait parler d’elle en lançant le robot conversationnel ChatGPT fin 2022, mettant en lumière les intelligences artificielles génératives. Son cofondateur et CEO Sam Altman est devenue une figure médiatique incarnant cette révolution capable d’impacter la société en profondeur.

L’annonce de son départ d’OpenAI, de sa récupération par Microsoft puis de sa réintégration quelques jours plus tard constitue donc un événement de première importance, d’autant plus que les circonstances de ces événements ne sont pas bien déterminées.

En attendant d’en savoir plus sur ce qui a conduit le conseil d’OpenAI à se séparer de son emblématique dirigeant, l’agence Reuters évoque l’existence d’un mystérieux projet Q Star (ou Q* ) signalé dans une lettre de plusieurs chercheurs adressée au conseil et qui concernerait une importante découverte en matière d’intelligence artificielle, avec une inquiétude sur les conséquences potentielles.

Une AGI qui inquiète déjà ?

Cette lettre serait l’une des causes, parmi d’autres, ayant conduit le conseil d’administration à perdre confiance en Sam Altman et à le soupçonner de ne pas avoir une communication franche.

Le projet Q Start porterait sur l’émergence d’une intelligence artificielle générale (AGI) qui serait donc en capacité de surpasser l’intelligence humaine dans de nombreux domaines.


D’après les témoignages obtenus par Reuters, cette nouvelle IA serait déjà capable de résoudre certains problèmes mathématiques par elle-même, avec une capacité d’évolution déjà intéressante grâce à des capacités de synthèse et de généralisation.

La lettre adressée au conseil d’administration ferait part d’inquiétudes concernant les progrès de cette IA et la nécessité de prendre des mesures de sécurité. Une nouvelle fois, la problématique de la mise sur le marché d’une IA sans anticiper les conséquences éventuellement négatives est évoquée.

En début d’année, un ensemble d’experts en IA avaient appelé à faire une pause dans le développement des IA avant  de risquer d’ouvrir une boîte de Pandore pouvant présenter un danger pour l’humanité.

OpenAI veut-elle aller trop vite ?

Le risque est qu’une IA générale puisse se mettre en compétition avec l’humanité et décide de l’exterminer. Plusieurs gouvernements ont d’ailleurs commencé à préparer un encadrement des IA et des mesures de sécurité pour éviter un tel scénario.

En lâchant ChatGPT dans la nature, OpenAI a déjà préféré jouer la rapidité pour être la première entreprise à se positionner sur le marché plutôt que la sécurité d’un système sous contrôle, avec des conséquences sur la prolifération de fake news, la destruction d’emplois et des questionnements sur la créativité humaine.

Faire la même chose avec une IA généraliste pourrait avoir des effets encore plus profonds dans la société et, au-delà de l’excitation d’explorer un territoire tout à fait nouveau, le sujet serait suffisamment sérieux pour inquiéter même au sein d’OpenAI.

Les événements du week-end autour de Sam Altman expriment peut-être cette crainte de perdre le contrôle et une volonté de trouver un autre dirigeant plus pondéré. Son retour à la tête de l’entreprise va-t-il conduire à une inflexion de la stratégie ou au contraire une accélération des projets ?



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.