Alors que l’intelligence artificielle ouvre des perspectives inédites en biologie, entre avancées médicales et risques sécuritaires, OpenAI trace des lignes rouges. L’entreprise américaine affirme vouloir encourager les applications bénéfiques — comme le développement de nouvelles thérapies — tout en érigeant des garde-fous face aux dérives, notamment l’éventuelle utilisation de l’IA pour concevoir des armes biologiques.
Anticiper les dérives de l’intelligence artificielle
Dans un billet de blog publié le 19 juin, OpenAI reconnaît que ses modèles pourraient représenter un risque majeur dans le domaine de la biologie. Pour prévenir tout usage malveillant, l’entreprise américaine annonce un plan de réduction des risques. Celui-ci repose sur une évaluation progressive avant chaque déploiement de modèles en lien avec des experts et des autorités publiques.
Des collaborations sont en cours avec des biologistes afin de créer des bases de données spécifiques aux usages dits « à double tranchant ». L’objectif étant d’empêcher les IA de générer des contenus sensibles, comme des protocoles expérimentaux que des personnes non qualifiées pourraient exploiter dans des domaines critiques, tels que la génétique ou l’immunologie.
Détection en temps réel et équipes spécialisées
Un système de détection en temps réel a été mis en place pour bloquer les requêtes dangereuses. Lorsqu’un risque est repéré, la réponse du modèle est automatiquement suspendue, avant de faire l’objet d’un double examen (automatisé d’abord, puis humain). En cas de suspicion d’usage malveillant, le compte de l’utilisateur peut être suspendu et signalé aux autorités.
L’entreprise a également mis en place une « équipe rouge », composée de biologistes et d’experts en cybersécurité. Leur mission est de tester les modèles dans des scénarios réalistes afin de détecter d’éventuelles failles, en simulant des tentatives d’abus. Cette approche permet à OpenAI de restreindre l’accès à certains outils tout en les ouvrant, de façon ciblée, aux institutions de recherche ou de santé.
Vers une gouvernance mondiale
Au-delà de la protection de ses propres systèmes, l’entreprise veut étendre la notion de sécurité à l’ensemble de l’écosystème biologique. Elle appelle à mettre en place des infrastructures capables de détecter rapidement de nouveaux agents pathogènes, à développer des systèmes de surveillance génétique et à renforcer les capacités globales de réponse en cas de crise sanitaire.
Un Sommet sur la biodéfense est prévu en juillet. Il réunira agences gouvernementales et ONG pour discuter d’un cadre de gouvernance internationale, conciliant innovation technologique et impératifs de sûreté. L’entreprise anticipe par ailleurs une convergence croissante entre intelligence artificielle et biologie, susceptible de faire émerger de nombreuses opportunités dans des secteurs tels que le développement de nouveaux médicaments, vaccins, biocarburants ou traitements. Elle estime également que les technologies de sécurisation de l’IA pourraient, à terme, constituer un nouveau pan stratégique de l’industrie.
Évaluer et contrôler les modèles IA sensibles
L’évaluation des risques repose sur deux organes de supervision : un comité interne rattaché au conseil d’administration et une entité externe indépendante. Ces structures identifient les modèles jugés sensibles, notamment ceux dont les capacités pourraient être détournées par des utilisateurs non experts. Ces modèles ne sont publiés qu’après intégration de garde-fous, ou dans des versions limitées.
« Les menaces biologiques peuvent avoir des conséquences dévastatrices. Il est donc impératif d’adopter une posture de prévention », conclut OpenAI, qui entend faire de la sécurité une condition incontournable de l’innovation.