Mistral AI et Nvidia s’allient pour créer le modèle multi-usage N …

nvid



Si Nvidia est dans le collimateur de l’Autorité français de la concurrence, cela ne l’empêche pas de poursuivre ses développements en IA, et notamment avec son partenaire hexagonal : Mistral AI. Actionnaire de la licorne, Nvidia officialise le lancement d’un nouveau modèle.

En collaboration, les deux entreprises technologiques viennent de mettre sur le marché Mistral NeMo 12B présenté comme  “un modèle d’IA d’entreprise de pointe”. En termes d’usages, le modèle génératif cible les chatbots, les tâches multilingues, le codage et la synthèse de document.

Chatbot, tâches multilingues, coding et synthèse

Le co-développement avec Nvidia a permis aux équipes de Mistral AI de tirer très largement profit des solutions du spécialiste des GPU. Parmi celles-ci, NVIDIA DGX Cloud AI pour l’entraînement, TensorRT-LLM pour l’inférence et NeMo sur la partie développement.

“Avec une longueur de contexte de 128 Ko, Mistral NeMo traite des informations étendues et complexes de manière plus cohérente et plus précise, garantissant ainsi des sorties contextuellement pertinentes”, décrivent les deux partenaires.

Mistral NeMo 12B, qui comme son nom le suggère compte 12 milliards de paramètres, est proposé sous licence Apache 2.0. “La licence de modèle ouvert permet aux entreprises d’intégrer Mistral NeMo dans des applications commerciales de manière transparente”, précise le communiqué.

Grâce au recours au format de données FP8 pour l’inférence, ses développeurs revendiquent réduction de la taille de la mémoire et déploiement accéléré (« quelques minutes, plutôt qu’en plusieurs jours »).

Modèle conteneurisé et sous licence Apache 2.0

Sa participation au développement permet en outre à Nvidia de fournir Mistral NeMo sous la forme d’un  microservice d’inférence NIM et d’en optimiser les performances sur ses environnements. Le fondeur affiche ainsi des gains lorsque le modèle est combiné à ses moteurs TensorRT-LLM.

Fourni dans un format conteneurisé, Mistral NeMo 12B est décrit comme un modèle économique à l’usage en termes de coût de calcul. Nvidia précise en effet qu’il est conçu pour s’adapter à la mémoire d’un seul GPU (L40S, GeForce RTX 4090 ou RTX 4500).

Depuis les derniers mois et un nouveau tour de table auprès des investisseurs, dont Nvidia, Mistral AI multiplie les partenariats, y compris avec des clients finaux. En France, la licorne signait ainsi coup sur coup des accords avec Axa et BNP Paribas.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.