OpenAI revient sur sa politique envers les lançeurs d’alerte

OpenAI revient sur sa politique envers les lançeurs d'alerte



La sécurité est l’une des principales préoccupations liées à la croissance rapide des modèles d’intelligence artificielle générative. Une plainte de sept pages déposée par des dénonciateurs et obtenue par le Washington Post concernant les pratiques d’OpenAI en matière de sécurité ne fait qu’accroître ces appréhensions. Et voici qu’OpenAI partage à présent avec le public des nouveautés en matière de sécurité.

Mardi, OpenAI s’est rendu sur X, anciennement Twitter, pour partager un récapitulatif des mises à jour sur « la façon dont nous donnons la priorité à la sécurité dans notre travail ».

OpenAI met en avant son Preparedness Framework, publié pour la première fois en version bêta en décembre. Ce framework embarque des guidelines pris par OpenAI pour garantir la sécurité de ses modèles d’IA. Par exemple, s’y trouvent la possibilité d’établir des fiches d’évaluation des modèles en fonction de différentes mesures. Et la non publication d’un nouveau modèle s’il franchit un seuil de risque « moyen ».

Des « niveaux » pour catégoriser et suivre les progrès de l’IA

Parallèlement, OpenAI a indiqué développer des « niveaux » pour catégoriser et suivre les progrès de l’IA. Plus de détails devraient arriver « bientôt ».

OpenAI a également fait le point sur son comité de sûreté et de sécurité, créé par le conseil d’administration en mai. L’examen mené par le comité, qui comprend des experts techniques et politiques, est actuellement en cours. Dès qu’il sera terminé, OpenAI fera part des mesures qui seront prises.

Enfin, OpenAI a attiré l’attention sur sa politique de lanceur d’alerte, qui « protège les droits des employés à faire des alertes protégées », selon l’entreprise. Afin d’encourager les conversations sur la technologie, l’entreprise a également modifié le processus de départ de ses employés, en supprimant les clauses de non-dénigrement.

Revirement

Ces mises à jour ont été communiquées un jour seulement après que les législateurs américains aient demandé à OpenAI de partager des données concernant ses pratiques de sécurité. Et ce à la suite du rapport d’un lanceur d’alerte.

Il semble qu’OpenAI ait déjà empêché par le passé son personnel d’alerter les autorités compétentes sur les risques technologiques.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.