OpenAI craint que l’IA facilite la création de nouveaux virus

OpenAI craint que l'IA facilite la création de nouveaux virus


OpenAI met en garde contre un risque grandissant de l’intelligence artificielle. Selon la start-up, les prochaines versions de ChatGPT pourraient aider n’importe qui à concevoir des armes biologiques sans avoir la moindre formation. Entre de mauvaises mains, l’IA représenterait une menace biologique d’envergure… C’est pourquoi OpenAI annonce avoir pris des mesures fortes.

OpenAI, la start-up à l’origine de ChatGPT, tire la sonnette d’alarme. Dans un billet de blog publié ce mercredi 18 juin 2025, la société américaine explique s’attendre à ce que les futurs modèles d’IA soient capables d’aider les internautes à concevoir des armes biologiques. Entre les mains de personnes mal informées ou inexpérimentées, l’intelligence artificielle pourrait accroitre le risque d’apparition d’armes bactériologiques incontrôlées.

En avril dernier, OpenAI avait déjà évoqué les risques posés par l’IA en matière d’agents pathogènes à usage militaire. Pour éviter les abus, la start-up de Sam Altman avait pris des mesures pour empêcher les modèles qui sous-tendent ChatGPT de prodiguer des conseils au sujet des menaces biologiques. OpenAI a glissé des garde-fous dans le code de o3 et o4-mini, ses deux modèles de raisonnement.

À lire aussi : La recherche en ligne avec ChatGPT s’améliore – OpenAI promet de meilleures réponses pour concurrencer Google

OpenAI redoute « l’élévation des novices »

Selon OpenAI, le danger posé par les modèles d’IA dans le domaine des agents biologiques est sur le point de prendre de l’ampleur. Interrogé par Axios, Johannes Heidecke, responsable des systémes de sécurité d’OpenAI, indique que la firme s’attend à ce que « certains des successeurs » du modèle o3 soient en mesure de guider l’utilisateur dans la création d’une arme biologique. La start-up redoute un phénomène qu’elle intitule « l’élévation des novices ». En clair, l’IA pourrait donner à n’importe qui la possibilité de créer des substances potentiellement dangereuses, sans en comprendre les risques. 

Dans son rapport, le géant de l’intelligence artificielle indique avoir décidé de renforcer les tests de ses modèles d’IA en cours de développement. Le plan de réduction des risques d’OpenAI prévoit d’évaluer chaque modèle, et les potentiels abus, avant le moindre déploiement. Dans le cadre des évaluations, la firme s’engage à se tourner vers des experts reconnus et des autorités publiques. Le processus nécessite l’approbation de deux organes de supervision, interne et externe. Il faut que les deux organes donnent leur aval avant qu’un modèle d’IA soit publié.

Par ailleurs, de nouvelles mesures de sécurité ont été mises en place pour bloquer toutes les demandes d’assistance dans la création de virus. Lorsqu’une requête potentiellement nuisible est détectée, OpenAI suspend la réponse de l’IA. La situation sera ensuite évaluée par un algorithme, puis par un humain.

Comme l’explique Johannes Heidecke, « nous ne sommes pas encore dans le monde dans lequel il y a une création nouvelle et complètement inconnue de menaces biologiques qui n’existaient pas auparavant ». À ce stade, les modèles risquent surtout de faciliter la « reproduction de choses que les experts connaissent déjà très bien » par des individus sans formation.

À lire aussi : Se montrer poli et remercier ChatGPT coûterait des dizaines de millions de dollars à OpenAI

Un exercice d’équilibriste

Comme toujours, OpenAI cherche à trouver le bon équilibre entre précaution et innovation. La start-up rappelle que les fonctions de l’IA qui pourraient aboutir à la conception d’armes biologiques sont les mêmes qui sont susceptibles de conduire à des percées médicales majeures. Les prochains modèles d’IA pourraient « permettre d’accélérer la découverte de nouveaux médicaments, de concevoir des vaccins plus efficaces, de créer des enzymes pour des carburants durables et de mettre au point des traitements innovants contre les maladies rares », indique OpenAI.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source :

OpenAI



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.