Un nouveau rapport du New York Times rvle qu’OpenAI a t victime d’une importante violation de donnes au dbut de l’anne dernire. Un pirate informatique inconnu serait parvenu infiltrer un forum de discussion interne des employs d’OpenAI et aurait vol des dtails sur la conception des technologies d’IA de l’entreprise. Il n’a toutefois pas russi pntrer les systmes o les modles GPT sont hbergs et forms. La priode de la violation de donnes correspond au dbut de la fivre de l’IA gnrative aprs le lancement succs de ChatGPT. L’entreprise a gard le silence sur l’incident et certains employs ont souponn une opration de la Chine.
OpenAI a publi ChatGPT le 30 novembre 2022. Le chatbot a tout de suite suscit un engouement massif et a franchi la barre des 100 millions d’utilisateurs en l’espace de deux mois, devenant l’poque l’application grand public la croissance la plus rapide de l’histoire. (ChatGPT a depuis t dtrn par Threads de Meta, qui a atteint cette barre en moins d’une semaine). la suite de ce succs retentissant, de nombreuses entreprises, dont Google, se sont lances l’assaut de l’IA gnrative pour ne pas tre laisses pour compte. Le succs de ChatGPT a galement attir l’attention inquitante des acteurs de la menace.
Le New York Times rapporte qu’au dbut de l’anne 2023, un pirate informatique a accd aux systmes de messagerie interne d’OpenAI et a vol des informations sur les technologies d’IA de l’entreprise. OpenAI aurait rvl l’incident ses employs, mais pas au public ni aux forces de l’ordre. Selon les sources du rapport, le pirate inconnu a russi voler des informations dans les discussions d’un forum en ligne pour les employs d’OpenAI, o ils parlaient des dernires technologies. Heureusement pour l’entreprise, le pirate n’a pas russi s’introduire dans les systmes o les modles GPT sont hbergs et entrans.
Deux sources du rapport ont dclar que certains employs d’OpenAI avaient soulev la question de savoir si de telles attaques pouvaient tre utilises par des pays comme la Chine pour voler des technologies d’IA. Lorsqu’ils ont t informs de l’incident, certains employs se sont galement interrogs sur le srieux avec lequel l’entreprise prenait en charge la scurit. Des divisions seraient galement apparues parmi les employs au sujet des risques lis l’IA. Cela conforte les rapports selon lesquels l’anne 2023 a t trs mouvemente pour OpenAI, dont le PDG Sam Altman a d’ailleurs t licenci temporairement.
En rapport avec l’incident, un ancien responsable du programme technique d’OpenAI a rdig une note l’intention du conseil d’administration de l’entreprise, dans laquelle il affirme que celle-ci ne fait pas assez pour empcher le vol de secrets par des adversaires trangers. Il s’agit de Leopold Aschenbrenner, qui a fait allusion la faille de scurit dans un podcast. Il a t licenci par OpenAI pour avoir divulgu des informations l’extrieur de l’entreprise et affirme que ce licenciement tait motiv par des considrations politiques. Pour mmoire, Aschenbrenner fut un membre de l’quipe « Superalignment » d’OpenAI.
Il tait galement connu comme un alli de Ilya Sutskever, cofondateur d’OpenAI et ancien responsable de l’quipe Superalignment. Aschenbrenner a t licenci en avril 2024 par OpenAI pour avoir prtendument divulgu des informations des journalistes. Il a galement des liens avec le mouvement de l’altruisme efficace. OpenAI a finalement dissout l’quipe Superalignment aprs qu’elle a t vide de tous ses scientifiques chevronns ; certains ont dmissionn la suite de dsaccords avec la direction et d’autres ont t purement et simplement licencis. Sutskever a lui aussi dmissionn sous fond de tensions en mai.
La rvlation qu’OpenAI a t victime d’une intrusion et que cela a provoqu des divisions parmi les employs ne fait que s’ajouter la liste croissante des problmes de l’entreprise. Depuis la fin de l’anne dernire, nous avons vu le PDG Sam Altman se battre avec un ancien conseil d’administration et en sortir vainqueur ; l’quipe Superalignment, qui tait cense aligner les modles de l’entreprise sur les valeurs humaines, a t vide de ses talents et finalement dissoute ; et d’anciens employs ont accus OpenAI d’avoir exerc des reprsailles contre eux aprs qu’ils ont dnonc des dysfonctionnements internes.
OpenAI a ragi aux allgations d’Aschenbrenner en dclarant que son licenciement n’tait pas li aux proccupations qu’il avait souleves. Bien qu’il y ait gnralement peu de preuves que l’IA pose des risques significatifs pour la scurit nationale, les experts restent proccups par les menaces futures, dont les armes biologiques ou les cyberattaques. Daniela Amodei, cofondatrice d’Anthropic, a dclar que le vol d’informations secrtes d’OpenAI ne constitue pas l’heure actuelle une grande menace pour la scurit nationale. Mais mesure que cette technologie devient plus performante, la situation pourrait changer.
Des acteurs comme OpenAI, Anthropic et Google affirment qu’ils ajoutent des mesures de scurit leurs systmes d’IA afin d’viter les abus. Pendant ce temps, les rgulateurs fdraux et les lgislateurs envisagent des rglementations pour attnuer les dommages potentiels des technologies d’IA. OpenAI a pris des mesures pour renforcer la scurit, notamment en crant un comit de sret et de scurit dirig par l’ancien directeur de la NSA, Paul Nakasone. Ce dernier a rejoint le conseil d’administration d’OpenAI le mois dernier ; une nomination controverse qui a suscit des interrogations dans la communaut.
OpenAI a dclar dans un communiqu : les ides de Nakasone contribueront aux efforts d’OpenAI pour mieux comprendre comment l’IA peut tre utilise pour renforcer la cyberscurit en dtectant et en rpondant rapidement aux menaces de cyberscurit. Ses premires responsabilits consisteront rejoindre le comit de sret et de scurit du conseil d’administration, o il prendra des dcisions critiques en matire de sret et de scurit pour tous les projets et oprations d’OpenAI . De nombreux critiques refusent l’ide d’un choix dlibr de la part d’OpenAI et affirment qu’il s’agit d’un choix impos.
La course mondiale l’IA se poursuit, la Chine produisant prs de la moiti des meilleurs chercheurs en IA du monde. Certains experts prdisent que la Chine pourrait dpasser les tats-Unis en matire de capacits d’IA. Clment Delangue, de Hugging Face, a soulign la probabilit que la Chine prenne la tte du peloton. Les responsables de la scurit nationale et les chercheurs prconisent des contrles plus stricts sur le dveloppement de l’IA afin de prvenir les risques futurs.
Alors que le paysage de l’IA volue, le dbat sur ses risques et sa gestion thique persiste. Aucune des entreprises engages dans la course ne matrise rellement la technologie. Mais encore, elles sont incapables de rsoudre les problmes connus, notamment l’hallucination et la dtection des contenus gnrs par l’IA.
Et vous ?
Quel est votre avis sur le sujet ?
Quels impacts cette violation de donnes pourrait-elle avoir sur OpenAI ?
Cette violation de donnes constitue-t-elle un risque pour la scurit nationale des tats-Unis ?
Pensez-vous qu’OpenAI a t contraint d’embaucher l’ancien directeur de la NSA aprs la violation de donnes ?
Que pensez-vous des dsaccords qui existent au sein d’OpenAI depuis l’anne dernire ? Menacent-ils la survie de l’entreprise long terme ?
Voir aussi