Satya Nadella (Microsoft) : « Attendez-vous à ce que nous incorporions l’IA dans chaque couche de la pile »

Satya Nadella (Microsoft) :


Mardi soir, lors de la conférence téléphonique sur les résultats du deuxième trimestre fiscal de Microsoft avec les analystes de Wall Street, le CEO Satya Nadella proposé ce qui est peut-être sa vision la plus large à ce jour sur ce que l’investissement de la société dans la startup OpenAI, basée à San Francisco et créatrice du très populaire ChatGPT, signifie pour Microsoft.


OpenAI, a-t-il dit, fait partie de la prochaine vague de l’informatique. « La prochaine grande vague sera l’IA, et nous sommes fermement convaincus qu’une grande partie de la valeur de l’entreprise est créée par la capacité d’attraper ces vagues et de faire en sorte que ces vagues aient un impact sur chaque partie de notre pile technologique, et créent également de nouvelles solutions et de nouvelles opportunités », a déclaré Nadella.


À cette fin, Microsoft « s’attend pleinement à incorporer l’IA dans chaque couche de la pile, que ce soit dans la productivité ou dans nos services client, et nous sommes donc enthousiastes à ce sujet. »

GitHub CoPilot, premier exemple de la puissance de GPT-3


À propos du partenariat avec OpenAI, Nadella a fait remarquer : « Il y a une partie investissement, et il y a un partenariat commercial, mais, fondamentalement, ce sera quelque chose qui va conduire, je pense, à l’innovation et à la différenciation concurrentielle dans chacune des solutions Microsoft en étant leader dans l’IA. »


À l’heure actuelle, les applications développées avec OpenAI sont GitHub CoPilot, où les réseaux neuronaux aident les programmeurs à effectuer des tâches de codage. « GitHub Copilot est le LLM (ndlr. grands modèles de langage pour Large Langage Model) le plus à l’échelle », a déclaré Nadella, en utilisant le jargon de l’industrie des réseaux neuronaux, et ce « sur la base du produit existant sur le marché aujourd’hui. »


GPT-3 d’OpenAI, qui fait partie du fonctionnement de ChatGPT, est l’un des plus grands modèles linguistiques de grande taille au monde, mesuré en fonction du nombre de paramètres, ou « poids » neuronaux.

Un support pour ChatGPT arrive


Microsoft, a déclaré Nadella, « ajoutera bientôt un support pour ChatGPT, » a-t-il dit, « permettant aux clients de l’utiliser dans leurs propres applications pour la première fois. »


Azure a récemment mis à disposition un service appelé Azure OpenAI Service, un moyen pour les développeurs d’accéder aux programmes d’OpenAI, et « plus de 200 clients, de KPMG à Al Jazeera, l’utilisent », a-t-il noté.


Nadella a laissé entendre que l’entreprise allait intégrer davantage la technologie dans les produits Microsoft, notamment dans le cadre de Synapse. Synapse est l’approche de base de données « fourre-tout » de Microsoft qui permet de mettre sur pied un « entrepôt de données » (data wharehouse) et un « lac de données » (datalake), des moyens communs de regrouper les données pour l’analyse, puis l’exécution de requêtes. D equoi, peut être, faire de l’ombre aux BDD structurées.

Le lien base de données non structurées et IA


« Vous pouvez nous voir avec des services de données au-delà d’Azure OpenAI Service », a déclaré Nadella aux analystes, « Pensez à ce que Synapse plus les API OpenAI peuvent faire ». Il n’a cependant pas détaillé ce point.


Après avoir dit aux analystes que les clients se serrent la ceinture en ce qui concerne les dépenses en matière de cloud, il  déclaré que Microsoft investit en permanence dans OpenAI et d’autres capacités d’IA.


En particulier, Microsoft Azure doit investir pour développer non seulement la partie de ses installations informatiques qui développe le code d’OpenAI, ce que l’on appelle la « formation », mais aussi la vaste infrastructure qui répond aux millions de requêtes des utilisateurs du logiciel, ce que l’on appelle dans le métier « l’inférence.« 

« L’activité d’infrastructure est en train de se transformer »


« Nous travaillons très, très dur pour construire à la fois les superordinateurs de formation et maintenant, bien sûr, l’infrastructure d’inférence », a-t-il déclaré. « Parce qu’une fois que vous utilisez l’IA à l’intérieur de vos applications, cela passe de la simple formation lourde à l’inférence. »


Ce changement de conception, a déclaré Nadella, poussera davantage les clients vers Azure. « Je ne pense pas que tout démarrage d’application qui se produira prochainement ressemblera aux démarrages d’application de 2019 ou 2020 », a-t-il déclaré.


« Ils auront tous des considérations sur la façon dont l’inférence d’IA, les performances, le coût, le modèle va ressembler, et c’est là que nous sommes à nouveau bien positionnés. »


En raison de l’omniprésence de l’IA, a déclaré Nadella, « je pense que le cœur d’Azure lui-même est en train de se transformer, l’activité d’infrastructure est en train de se transformer. »

Pour aller plus loin sur OpenAI et ChatGPT


Source : « ZDNet.com »





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.