dissolution de l’équipe chargée de la sécurité d’une potentielle super intelligence artificielle

dissolution de l’équipe chargée de la sécurité d’une potentielle super intelligence artificielle


Après le départ de ses deux responsables, l’équipe d’OpenAI chargée de la sécurité d’une potentielle super intelligence artificielle (IA) a été dissoute et ses membres intégrés à d’autres groupes de recherche de l’entreprise. OpenAI a confirmé cette information vendredi à l’Agence France-Presse (AFP), précisant que le changement de structure avait commencé il y a plusieurs semaines. L’inventeur de ChatGPT assure que les chercheurs chargés de la sûreté des modèles d’IA pourront ainsi travailler de concert avec les ingénieurs qui développent ces modèles.

Mais les deux responsables de l’ancienne équipe viennent de quitter la société star de la Silicon Valley. Jan Leike a expliqué vendredi sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a indiqué l’ingénieur qui chapeautait l’équipe chargée du « Superalignement », c’est-à-dire de s’assurer qu’une future IA générale, aussi intelligente que les humains, soit alignée sur nos valeurs.

Sam Altman, le cofondateur et patron de l’entreprise basée à San Francisco, s’est dit « très triste de voir [Jan Leike] partir ». « Il a raison, nous avons encore beaucoup à faire [pour la recherche sur l’alignement et la sécurité], et nous sommes déterminés à le faire », a-t-il ajouté, promettant un message plus long prochainement.

L’équipe de « superalignement » était aussi dirigée par Ilya Sutskever, cofondateur d’OpenAI, qui a annoncé son départ mardi. Sur X, il s’est dit « convaincu qu’OpenAI construira une intelligence artificielle générale à la fois sûre et bénéfique ». Ex-scientifique en chef de l’entreprise, il siégeait au conseil d’administration qui a voté la révocation de Sam Altman en novembre 2023, avant de faire machine arrière.

Lire aussi le récit : Article réservé à nos abonnés OpenAI : aux sources de l’affaire Sam Altman

« Agir avec gravité »

Avec ChatGPT, OpenAI a lancé la révolution de l’IA générative (production de contenus sur simple requête en langage courant), qui enthousiasme la Silicon Valley mais inquiète aussi de nombreux observateurs et régulateurs, de la Californie à Washington et Bruxelles. Surtout quand Sam Altman parle de créer une IA générale, c’est-à-dire dotée de capacités cognitives équivalentes à celles des humains.

OpenAI a présenté lundi une nouvelle version de ChatGPT qui peut désormais tenir des conversations orales et fluides avec ses utilisateurs, un pas de plus vers des assistants d’IA toujours plus personnels et performants.

Lire aussi | Article réservé à nos abonnés OpenAI : « L’ambition pharaonique de Sam Altman »

Jan Leike a appelé vendredi tous les employés d’OpenAI à « agir avec la gravité » que justifie ce qu’ils sont en train de construire. « Je pense que nous devrions passer beaucoup plus de temps à nous préparer pour les prochaines générations de modèles, sur la sécurité, les contrôles, la sûreté, la cybersécurité, l’alignement avec nos valeurs, la confidentialité des données, l’impact sociétal et d’autres sujets », a-t-il énuméré.

Le Monde avec AFP



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.