Mistral AI lance les Ministraux (3B et 8B), des modèles Edge

Mistral AI lance les Ministraux (3B et 8B), des modèles Edge


La licorne française de l’intelligence artificielle générative continue de dérouler sa feuille de route en ajoutant de nouveaux modèles à son catalogue. Mistral AI se positionne ainsi à présent sur les modèles locaux et edge avec les Ministraux.

Derrière cette appellation, on trouve donc deux modèles de 3 et 8 milliards de paramètres conçus pour fonctionner sur des terminaux et en mode edge computing : Ministral 3B et Ministral 8B. L’annonce intervient à la date anniversaire de Mistral 7B, le premier né de l’éditeur.

Des modèles sur-mesure pour le edge computing

Mistral AI précise que ses derniers modèles peuvent être utilisés ou adaptés à une variété de cas d’usage, comme l’orchestration de flux de travail d’agents ou la création de robots spécialisés sur des tâches.

“Les deux modèles supportent jusqu’à 128k de longueur de contexte (actuellement 32k sur vLLM) et Ministral 8B dispose d’un modèle d’attention spécial (…) pour une inférence plus rapide et moins gourmande en mémoire”, indique la licorne.

D’après Mistral AI, le développement des Ministraux constitue une réponse à la demande de clients et partenaires en faveur d’une inférence locale et respectueuse de la vie privée pour des applications critiques.

En termes de cas d’usage couverts, la startup cite également la traduction embarquée sur un terminal, les assistants intelligents sans internet, l’analyse locale et la robotique autonome.

Les Ministraux « des intermédiaires efficaces »

Pour s’adapter à ces usages, les Ministraux se montrent moins gourmands en compute et en latence. Mistral AI met aussi en avant la capacité de ses modèles à fonctionner en combinaison avec des LLM de grande taille comme Mistral Large et dans un rôle d’intermédiaire.

Les Ministraux sont ainsi présentés comme “des intermédiaires efficaces pour l’appel de fonctions dans les flux de travail agentiques à plusieurs étapes.”

“Ils peuvent être réglés pour gérer l’analyse des entrées, l’acheminement des tâches et l’appel des API en fonction de l’intention de l’utilisateur dans des contextes multiples, avec une latence et un coût extrêmement faibles”, souligne l’éditeur.

Mistral AI met aussi en avant les gains de performance apportés par ses derniers nés, benchmarks à l’appui. “Un an seulement s’est écoulé depuis la sortie de Mistral 7B, et pourtant notre plus petit modèle actuel (Ministral 3B) le surpasse déjà dans la plupart des tests de référence.”



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.