OpenAI teste ses modèles pendant des jours au lieu de mois, pourq …

OpenAI teste ses modèles pendant des jours au lieu de mois, pourq ...



Le Financial Times assure qu’OpenAI a considérablement réduit son calendrier de tests de sécurité.

Huit personnes qui font partie du personnel de l’entreprise ou qui sont des testeurs tiers ont déclaré qu’ils n’avaient désormais que quelques jours pour terminer les évaluations des nouveaux modèles – un processus qui, selon eux, devrait normalement durer plusieurs mois.

Avantage concurrentiel

Les évaluations permettent de mettre en évidence les risques liés aux modèles. Comme le fait qu’un utilisateur puisse pirater un modèle. À titre de comparaison, OpenAI donnait six mois pour examiner le modèle GPT-4 avant qu’il ne soit publié. Les testeurs n’avaient découvert des capacités inquiétantes qu’après deux mois.

Par ailleurs, les tests d’OpenAI ne sont plus aussi approfondis qu’auparavant. Les testeurs ne disposent plus du temps et des ressources nécessaires pour détecter et atténuer correctement les risques. « Nous avions des tests de sécurité plus approfondis lorsque la technologie était moins importante », a déclaré une personne qui teste actuellement o3, la version complète d’o3-mini. Ils ont également qualifié ce changement d' »imprudent » et de « recette pour un désastre ».

Les sources ont attribué cette précipitation à la volonté d’OpenAI de conserver un avantage concurrentiel, notamment parce que les modèles open source des concurrents, comme la startup chinoise DeepSeek, gagnent de plus en plus de terrain. Selon les rumeurs, OpenAI devrait lancer o3 prochainement.

Pas de réglementation

Ce changement souligne le fait qu’il n’existe toujours pas de réglementation gouvernementale aux Etats-Unis pour les modèles d’IA, ni d’obligation de divulguer les dommages causés par les modèles. Des entreprises, dont OpenAI, ont signé des accords avec l’administration Biden pour effectuer des tests avec l’Institut américain de sécurité de l’IA. Mais les archives de ces accords ont discrètement disparu. Et ce alors que l’administration Trump a inversé la politique des Etats-Unis en la matière.

En dehors des États-Unis, la loi européenne sur l’IA exigera que les entreprises testent les risques de leurs modèles et documentent les résultats.

« Nous avons un bon équilibre entre notre rapidité d’action et notre rigueur », a déclaré Johannes Heidecke, responsable des systèmes de sécurité chez OpenAI.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.