OpenAI a cr un comit de sret et de scurit qui sera dirig par des membres du conseil d’administration, dont le PDG Sam Altman Alors qu’elle commence former son prochain modle d’IA

une faille de scurit expose 24 adresses e-mail malgr les dispositions prises par OpenAI, tandis que des experts alertent sur le risque de cration de jardins clos d'IA



OpenAI cre un comit de scurit pour la formation de son nouveau modle d’IA

OpenAI effectue des recherches sur l’intelligence artificielle dans le but de dvelopper une intelligence gnrale artificielle « sre et bnfique », qu’elle dfinit comme « des systmes hautement autonomes qui surpassent les humains dans la plupart des travaux conomiquement utiles ». L’organisation se compose de la structure but non lucratif OpenAI, Inc. et de sa filiale but lucratif, OpenAI Global, LLC. Microsoft a fourni OpenAI Global, LLC un investissement d’un milliard de dollars en 2019 et un investissement de 10 milliards de dollars en 2023.

OpenAI a form un comit de sret et de scurit qui sera dirig par des membres du conseil d’administration, dont le PDG Sam Altman, alors qu’elle commence former son prochain modle d’intelligence artificielle. Les directeurs Bret Taylor, Adam D’Angelo et Nicole Seligman dirigeront galement le comit, a indiqu OpenAI.

Les chatbots d’OpenAI, soutenus par Microsoft, dots de capacits d’IA gnrative, telles que l’engagement dans des conversations de type humain et la cration d’images bases sur des invites textuelles, ont suscit des inquitudes en matire de scurit mesure que les modles d’IA devenaient puissants. Le nouveau comit sera charg de formuler des recommandations au conseil d’administration sur les dcisions relatives la sret et la scurit des projets et des oprations d’OpenAI.

« La cration d’un nouveau comit de scurit signifie que l’OpenAI est en passe de devenir une entit commerciale, alors qu’elle n’tait jusqu’ prsent qu’une entit but non lucratif« , a dclar Gil Luria, directeur gnral de D.A. Davidson. « Cela devrait permettre de rationaliser le dveloppement des produits tout en maintenant la responsabilit.« 

Les anciens scientifiques en chef Ilya Sutskever et Jan Leike, qui dirigeaient l’quipe Superalignment d’OpenAI, charge de veiller ce que l’IA reste aligne sur les objectifs viss, ont quitt l’entreprise. OpenAI a dissous l’quipe Superalignment au dbut du mois de mai, moins d’un an aprs sa cration, certains membres de l’quipe ayant t raffects d’autres groupes.

La premire tche du comit sera d’valuer et de dvelopper les pratiques de scurit existantes d’OpenAI au cours des 90 prochains jours, aprs quoi il partagera ses recommandations avec le conseil d’administration. Aprs l’examen du conseil, OpenAI partagera publiquement une mise jour des recommandations adoptes, a dclar la socit.

Parmi les autres membres du comit figurent Jakub Pachocki, scientifique en chef nouvellement nomm, et Matt Knight, responsable de la scurit. L’entreprise consultera galement d’autres experts, dont Rob Joyce, ancien directeur de la cyberscurit de l’Agence nationale de scurit des tats-Unis, et John Carlin, ancien fonctionnaire du ministre de la justice.

OpenAI n’a pas fourni d’autres dtails sur le nouveau modle « frontire » qu’elle est en train de former, si ce n’est qu’il amnera ses systmes au « prochain niveau de capacits sur notre chemin vers l’AGI« . Au dbut du mois de mai, elle a annonc un nouveau modle d’IA capable d’effectuer des conversations vocales ralistes et d’interagir avec du texte et des images.

Et vous ?

Pensez-vous que cette initiative est crdible ou pertinente ?

Quel est votre avis sur le sujet ?

Voir aussi :

OpenAI cre une quipe charge d’tudier les risques catastrophiques lis l’IA, y compris les menaces nuclaires

OpenAI, xAI, Google, Meta et d’autres entreprises d’IA s’engagent sur la scurit, promettant de ne pas dployer d’IA si les risques graves ne peuvent pas tre pris en compte et attnus

OpenAI publie ses intentions dans le domaine de la scurit en Intelligence artificielle : cela sera-t’il suffisant ?



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.