quel avenir pour les grands modèles de langage ?

L’Intelligence artificielle, nouvel enjeu de cybersécurité


L’année 2023 a été celle de l’intelligence artificielle (IA) générative, portée notamment par l’agent conversationnel ChatGPT d’OpenAI. Sous son « capot » se trouve un grand modèle de langage (ou LLM, pour large language model) appelé « GPT-4 », une IA entraînée sur des quantités prodigieuses de textes bruts à trouver une fin plausible à un début de phrase. C’est cette capacité qu’exploite ChatGPT pour rédiger, résumer ou traduire des articles ou des CV, voire produire du code informatique, et les LLM sont le nerf de la guerre à laquelle se livrent aujourd’hui les champions internationaux de l’IA générative. Se sont ainsi succédé les annonces de LLM par les géants américains Meta, Google, Apple, bientôt suivis par Amazon, ou leur concurrent chinois Baidu, rejoints récemment dans la course par des acteurs européens émergents comme l’allemand Aleph Alpha ou les français LightOn et Mistral AI. Quels sont les enjeux de cette course à l’innovation et que nous réserve 2024 ?

Au niveau technique, 2023 a vu l’arrivée de LLM assez rapides et compacts pour fonctionner sur un téléphone portable, et l’intégration de nouvelles modalités : à la synthèse d’images réalistes succède aujourd’hui l’analyse des images, du son et de la parole humaine par GPT-4v et Gemini, par exemple. Les efforts pour réduire le coût d’entraînement des LLM et leur impact énergétique doivent cependant se poursuivre : les millions d’heures de calcul sur des processeurs spécialisés (GPU) nécessaires pour entraîner un seul LLM sur des milliards de documents coûtent des dizaines de millions d’euros. Les acteurs émergents tels que Mistral AI et le « petit dernier » Kyutai ne cachent d’ailleurs pas qu’une partie importante de leurs levées de fonds spectaculaires est destinée au calcul.

Faiseur de rois

Cela pose la question du modèle économique de l’IA générative : il n’existe aujourd’hui qu’une poignée d’acteurs (une douzaine au plus) capables de créer des LLM « génériques » en les entraînant sur des corpus gigantesques. Or c’est ce qui fait leur succès : l’entraînement direct de petits modèles spécialisés n’apporte pas les mêmes performances. Comment la valeur sera-t-elle partagée entre ces acteurs, qu’ils soient ou non à but lucratif ? Quel avenir pour la myriade de sociétés appelées à se développer pour adapter les LLM génériques aux domaines et aux données d’entreprises spécifiques (on parle de fine tuning) ? Même interrogation pour le constructeur de GPU Nvidia, à qui le quasi-monopole de leur production, et donc le contrôle à leur accès, pourrait donner un rôle de faiseur de rois.

Il vous reste 30% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.