Le prochain responsable de la prévention des risques chez OpenAI touchera un gros pactole… mais il devra aussi vivre sous une pression intense, dans une fonction particulièrement stressante. Toujours intéressé ?
OpenAI a du mal à garder ses « Head of Preparedness », qu’on pourrait traduire par responsable de la prévention des risques. Depuis toujours, ce poste est instable au sein de la start-up. Depuis juillet 2024, la direction de cette équipe était bicéphale, mais les deux cadres ont fini soit par quitter l’entreprise, soit par bifurquer en interne. C’est pourquoi OpenAI cherche une nouvelle perle rare, plus stable, qui sera grassement payée (555 000 $ par an, plus des bonus)… mais il faudra donner de soi-même.
Prévenir les dérives de l’IA
Sam Altman, le patron d’OpenAI, prévient : « Ce sera un poste sous pression, et vous serez plongé dans le grand bain presque immédiatement. » Ce responsable sera placé à un « poste clé à un moment décisif», déroule-t-il avant d’ajouter que « Les modèles progressent rapidement et sont désormais capables de grandes choses, mais ils commencent aussi à poser de réels problèmes. »
Concrètement, le nouveau venu devra piloter le programme de prévention, décrit comme une méthode destinée à suivre l’émergence de capacités dites « de frontière » qui sont susceptibles d’entraîner des préjudices graves si elles étaient mal utilisées ou détournées. L’une de ses principales responsabilités sera de comprendre comment les capacités des modèles peuvent être exploitées de manière malveillante, que ce soit en cybersécurité, en manipulation psychologique, ou dans d’autres domaines sensibles.
Sam Altman identifie deux « domaines » majeurs : l’impact de ChatGPT sur la santé mentale et la capacité croissante des modèles à identifier des failles de sécurité critiques. Le job implique un équilibre délicat entre le renforcement des capacités de défense en matière de cybersécurité tout en empêchant les attaquants d’exploiter les mêmes outils.
Dans les faits, ce responsable sera chargé de trouver une voie entre la montée en puissance rapide des modèles et la capacité d’OpenAI à en assumer les conséquences, alors que les régulateurs sont de plus en plus regardants. Le poste est décrit comme très stressant.
?? Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.
Source :
OpenAI