Sam Altman a exprimé ses préoccupations concernant l’IA et en particulier le potentiel du ChatGPT-4. Il met en garde contre les conséquences potentiellement dangereuses de cette technologie et souligne la nécessité d’une régulation adéquate pour minimiser les risques.
Le PDG d’OpenAI, l’entreprise à l’origine de ChatGPT, mais aussi DALL-E, met en garde contre les dangers que pourrait représenter l’intelligence artificielle pour nos sociétés. Il souligne que les régulateurs doivent être impliqués dans la technologie pour se prémunir contre les conséquences potentiellement négatives pour l’humanité.
Se prémunir contre les conséquences négatives de l’IA
L’intelligence artificielle (IA) est en train de transformer notre monde de manière significative. Parmi les entreprises qui se démarquent dans ce domaine, OpenAI, dirigée par Sam Altman, est en première ligne. OpenAI est dédiée à la recherche et au développement de l’IA, et a récemment dévoilé sa dernière création : le modèle GPT-4.
A lire aussi : Comment les hackers utilisent ChatGPT pour vider votre compte bancaire
Dans une interview accordée à ABC News, Altman met en avant le champ des possibles, offerts par l’intelligence artificielle. Il n’hésite pas à dire qu’il pourrait s’agir de « la plus grande technologie que l’humanité ait encore développée ». Mais il reste également conscient des dérives que cela pourrait entrainer :
« Nous devons être prudents ici. […] Je pense que les gens devraient être heureux que nous ayons un peu peur de cela. […] Je suis particulièrement inquiet que ces modèles puissent être utilisés pour la désinformation à grande échelle. […] Maintenant qu’ils s’améliorent dans l’écriture de code informatique, [ils] pourraient être utilisés pour des cyber-attaques offensives. »
Seulement quatre mois après sa sortie, ChatGPT est devenu l’application grand public avec la croissance la plus rapide de l’histoire. Une croissance impressionnante pour un outil en constante évolution. Au sujet du nouveau modèle GPT-4 lancé la semaine dernière, Altman a déclaré que cette dernière version n’était « pas parfaite », tout en soulignant sa capacité impressionnante à coder ou à réussir des examens en droit et en mathématique avec des scores élevés.
« Un outil sous le contrôle des humains »
Le PDG d’OpenAI craint surtout que des Hommes mal intentionnés utilisent ce genre d’outil et qu’ils n’établissent pas « certaines des limites de sécurité que nous imposons ». Il poursuit en précisant que ChatGPT-4 utilise un raisonnement déductif et non reposant sur la mémorisation. Un fonctionnement qui peut conduire à des réponses bizarres, comme le souligne Sam Altman :
« La chose sur laquelle j’essaie de mettre en garde les gens est ce que nous appelons le “problème des hallucinations”. Le modèle peut énoncer des choses avec confiance comme s’il s’agissait de faits, alors que tout aura été inventé. »
Des avertissements qui interviennent alors que Microsoft, qui a investi massivement dans OpenAI et intégré le modèle de ChatGPT à Bing, s’est délesté de son équipe dédiée à l’IA responsable. Les préoccupations de Altman font écho à un tweet d’Elon Musk datant du 1er décembre 2022. Dans ce dernier, le milliardaire alertait sur le fait qu’ « il n’y a pas de surveillance réglementaire de l’IA, ce qui est un problème *majeur*. Je réclame une réglementation de la sécurité de l’IA depuis plus d’une décennie ! »
Source :
ABC News