voici ce que cela si …

voici ce que cela si ...



De manière quelque peu inattendue, OpenAI fait évoluer sa structure d’entreprise, et pas dans la direction qu’elle semblait prendre.

OpenAI LLC est la branche à but lucratif de l’organisation qui gère des produits comme ChatGPT. OpenAI Inc est la branche à but non lucratif propriétaire d’OpenAI LLC. Cette semaine, la société a annoncé qu’OpenAI LLC allait devenir une Public Benefit Corporation (PBC), OpenAI Inc conservant le contrôle en tant qu’actionnaire principal.

Une structure juridique hybride

Aux États-Unis, une PBC est une structure juridique hybride spécifique reconnue par certains États qui concilie performance économique et intérêt général. L’équivalent le plus proche en France est l’entreprise à mission qui permet à une société commerciale de définir des objectifs sociaux ou environnementaux dans ses statuts.

(Information : Ziff Davis, la société mère de ZDNET, a intenté une action en justice contre OpenAI en avril 2025, l’accusant d’avoir enfreint ses droits d’auteur lors de la formation et de l’exploitation de ses systèmes d’IA.)

D’autres entreprises d’IA, notamment Anthropic et X.ai, ainsi que des entreprises de vente au détail comme Allbirds et Patagonia, sont constituées en Public Benefit Corporation.

Le passage à une entreprise à mission

Ces dernières années, les dirigeants d’OpenAI ont été en proie à des polémiques sur l’orientation à donner à l’entreprise, notamment fin 2023, lorsque le PDG Sam Altman a été brièvement évincé puis réintégré, apparemment en raison de désaccords internes sur la recherche de profits au détriment d’objectifs plus stratégiques.

Dans une lettre adressée aux employés annonçant le passage à une entreprise à mission, Altman a rappelé que l’ancienne structure avait été conçue pour une époque antérieure de la course à l’IA, lorsqu’OpenAI supposait qu’elle deviendrait la puissance dominante en la matière. Il a ajouté que cette décision avait été influencée par les retours de responsables de la société civile, notamment des procureurs généraux de Californie et du Delaware, qui, a-t-il précisé, resteront impliqués dans le développement de la nouvelle structure.

La description du changement par Sam Altman reste toutefois ouverte quant aux normes d’application de l’entreprise. « Nous souhaitons rendre open source des modèles très performants », écrit-il. « Nous souhaitons offrir à nos utilisateurs une grande liberté d’utilisation de nos outils, dans le cadre de larges limites, même si nous ne partageons pas toujours les mêmes valeurs morales, et leur permettre de décider du fonctionnement de ChatGPT. »

Garantir que l’IA profite à tous

Sam Altman a déclaré que les produits OpenAI devraient être « extrêmement faciles à utiliser pour tous (sous réserve de quelques restrictions ; la liberté ne devrait pas empiéter sur celle d’autrui, par exemple) ». Cela s’inscrit dans la lignée des récentes modifications apportées aux spécifications du modèle d’OpenAI, qui ont allégé les directives précédentes sur l’utilisation des grands modèles de langage de l’entreprise et mis l’accent sur la « liberté intellectuelle » dans la façon dont les modèles sont entraînés à réagir.

« Nous voulons nous assurer que l’IA démocratique l’emporte sur l’IA autoritaire », a-t-il déclaré.

Il a également ajouté que l’entreprise souhaitait « s’assurer que l’IA profite à tous, et pas seulement à quelques-uns », soulignant qu’une commission consultative aiderait OpenAI à « se concentrer sur la manière dont notre travail à but non lucratif peut soutenir un avenir de l’IA plus démocratique et avoir un impact réel dans des domaines tels que la santé, l’éducation, les services publics et la découverte scientifique ».

Cependant, les technologies destinées à ces secteurs de la société, surtout si elles sont déployées via des systèmes publics, sont généralement soumises à une réglementation plus stricte que les produits grand public privés comme ChatGPT. OpenAI a raccourci les délais de ses tests de sécurité ces derniers mois, apparemment pour rester compétitif face aux laboratoires d’IA chinois, qui ont publié des modèles notables comme DeepSeek et Manus.

Malgré cela, Sam Altman insiste dans son annonce sur son engagement en faveur de la sécurité. « À mesure que l’IA s’accélère, notre engagement en faveur de la sécurité se renforce ».



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.