Meta se rapproche de l’IA open source avec la nouvelle version LL …

Meta se rapproche de l'IA open source avec la nouvelle version LL ...



Meta, la société mère de Facebook, a annoncé un nouveau programme d’IA open source appelé LLaMA 3.1 405B. Derrière ce nom que seul un programmeur pourrait aimer, se cache un nouveau modèle de langage étendu (LLM) plus puissant qui alimentera l’assistant d’IA de Meta. Et sera intégré dans de nombreux programmes pour utilisateurs finaux de Meta.

Mark Zuckerberg, PDG de Meta, a dévoilé LLaMA 3.1 dans un post sur Threads. Il dit que « l’IA open-source est la voie à suivre ». Dans une interview accordée à Rundown.ai, Zuckerberg a ajouté : « Les modèles ouverts vont devenir la norme. Et je pense que le monde s’en portera mieux. C’est un peu pénible de construire des fonctionnalités que l’on croit bonnes pour sa communauté, et de s’entendre dire que l’on ne peut pas les librer parce qu’une entreprise veut vous enfermer dans une boîte pour mieux vous concurrencer ».

Cela signifie-t-il que LLaMa 3.1 est réellement open source ?

Neal Gompa, un développeur Linux, a dit sur Mastodon : « Cela signifie-t-il que LLaMA 3 est sous une licence open-source approuvée par l’OSI [Open Source Initiative], contrairement à ses prédécesseurs ? Nous n’avons pas pu livrer LLaMA 2 dans Fedora parce qu’il n’utilisait pas de licence open-source approuvée par l’OSI ».

Et bien la réponse est non.

Stefano Maffulli, directeur exécutif de l’OSI, m’a dit lors d’une interview : « En théorie, nous sommes d’accord avec tout ce que Zuck a écrit et dit. Si seulement la licence de Meta supprimait les restrictions et si Meta publiait tous les détails concernant leurs ensembles de données d’entraînement et les instructions d’entraînement, nous serions 100 % d’accord ».

« Llama est un handicap pour tout développeur »

« En l’état actuel des choses, poursuit Maffulli, Llama est un handicap pour tout développeur ; trop opaque pour être sûr d’être utilisé et avec une licence qui, en fin de compte, laisse Meta responsable de ses innovations ».

Stephen O’Grady, analyste industriel chez RedMonk, est d’accord. « C’est une bonne nouvelle que Meta ait abandonné certaines des restrictions d’utilisation de Llama. Mais tant qu’elle continuera à restreindre les entreprises qui peuvent utiliser le logiciel, comme le fait la nouvelle licence, il est clair qu’il ne s’agit pas d’un logiciel libre. Si Linux, par exemple, était publié sous cette licence, Meta aurait le droit de l’utiliser, mais des entreprises comme Amazon, Google et Microsoft ne le pourraient pas. Ce n’est pas de l’open source ».

Selon Zuckerberg, au-delà des questions d’open source et de technologie, le nouveau modèle est conçu pour être plus efficace et plus puissant que ses prédécesseurs. Il estime notamment que la méthode Meta est meilleure que l’approche d’Apple en matière d’IA.

L’un des modèles d’IA les plus sophistiqués qui soient

Le nouveau LLaMA est doté d’un modèle de 405 milliards de paramètres, ce qui en fait l’un des modèles d’IA les plus sophistiqués qui soient. C’est encore beaucoup moins que ChatGPT 4.0, avec ses 1,8 trillion de paramètres. Cela dit, il s’agit tout de même d’une mise à niveau importante. Elle devrait améliorer les performances en matière de traduction linguistique, de génération de contenu et de recherche scientifique.

M. Zuckerberg affirme que LLMA 3.1 est « compétitif par rapport à certains des principaux modèles fermés, et dans certains domaines, il est même en avance ». L’analyse comparative de Meta montre que LLaMA est compétitif avec les principaux modèles de fondation, y compris GPT-4, GPT-4o, et Claude 3.5 Sonnet, dans diverses tâches. Il déclare également : « D’après nos estimations, il sera 50% moins cher, je pense, que GPT-4 pour faire de l’inférence directement sur le modèle 405B ».

Le nouveau modèle est disponible dès aujourd’hui auprès de plus de 25 partenaires, dont AWS, NVIDIA, Databricks, Groq, Dell, Azure et Google Cloud. Meta a également déclaré qu’il est prêt à prendre en charge des outils d’IA aussi populaires que vLLM, TensorRT et PyTorch, de sorte que les développeurs peuvent immédiatement commencer à travailler avec LLaMA 3.1.

Vous pouvez essayer le nouveau moteur par vous-même. Les développeurs peuvent tester LLaMA 3.1 ici.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.