OpenAI a annoncé l’arrivée de son prochain modèle linguistique, le mystérieux GPT-5. La start-up indique avoir commencé à former l’IA, dont la sortie est attendue dans le courant de cette année. Elle promet un nouveau bond en matière de capacités…
Ce mardi 28 mai 2024, OpenAI a publié un nouveau communiqué sur son blog. Seulement quinze jours après l’annonce de ChatGPT 4o, la start-up a évoqué l’arrivée de son prochain modèle linguistique, le très attendu GPT-5.
« OpenAI a récemment commencé à former son prochain modèle de nouvelle génération et nous prévoyons que les systèmes qui en résulteront nous amèneront au prochain niveau de capacités vers notre chemin vers l’AGI » (NDLR : Artificial general intelligence), indique le billet de blog.
D’après la société américaine, ce modèle d’IA représente une nouvelle étape vers la conception d’une intelligence artificielle générale, le but ultime d’OpenAI. Il s’agit d’une IA capable d’évoluer et de s’adapter aux tâches qui lui sont confiées, même si elle n’est pas programmée pour les réaliser. En fait, elle fonctionne un peu comme le cerveau humain. Malgré les avances de ces dernières années, l’IA est encore loin d’être arrivée à ce stade.
Jusqu’ici, OpenAI est resté plutôt évasif sur le développement de son remplaçant à ChatGPT 4. Il y a quelques jours, la start-up a néanmoins évoqué l’avenir son intelligence artificielle lors d’une conférence organisée à Paris. Après avoir démontré toutes les possibilités offertes par ChatGPT 4o, OpenAI a teasé la sortie de GPT-5, actuellement baptisé GPT-Next. Tout laisse penser que la formation de l’IA suit son cours et qu’une annonce aura lieu dans les mois à venir. Pour le moment, OpenAI se garde cependant de détailler ce que proposera le prochain GPT en matière de nouveautés.
À lire aussi : À la traine, Apple préparerait un gros coup avec ChatGPT pour iOS 18
Un comité de sécurité pour encadrer l’IA
Par ailleurs, le communiqué d’OpenAI est surtout consacré à la création d’un « comité de sûreté et de sécurité ». Composé des administrateurs Bret Taylor (président), Adam D’Angelo, Nicole Seligman et du PDG Sam AltmanPDG), ce comité sera « chargé de faire des recommandations à l’ensemble du conseil d’administration sur les décisions essentielles » à prendre en matière de sécurité. Pour imaginer ces recommandations, le groupe s’appuiera aussi sur l’avis de scientifiques et autres experts en sécurité.
Cette décision a vraisemblablement été motivée par le récent scandale concernant Scarlett Johansson. L’actrice estime qu’une des versions vocales de ChatGPT 4o, baptisée Sky, a le même timbre de voix qu’elle. Elle accuse OpenAI d’avoir utilisé sa voix sans lui demander son autorisation. La comédienne révèle que l’entreprise lui avait ultérieurement proposé de prêter sa voix à ChatGPT. Face à la colère de Scarlett Johansson, qui refuse fermement de collaborer, OpenAI a préféré désactiver Sky. La start-up souligne cependant que la voix n’est pas celle de la célèbre actrice.
Avec l’annonce de ce comité, OpenAI cherche visiblement à rassurer ses nombreux détracteurs, inquiets des dérives de l’intelligence artificielle générative. La première tâche du comité, qui s’étalera sur une période de 90 jours, consistera à analyser et à proposer des améliorations sur les processus de sécurité d’OpenAI. Une fois l’évaluation terminée, les conclusions, et les changements proposés par le comité, seront divulguées au public dans un nouvel effort de transparence.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source :
OpenAI