Mistral AI lance Small 3, une alternative locale et open source à …

Mistral AI lance Small 3, une alternative locale et open source à ...


Jeudi, la société française Mistral AI a lancé Small 3, qu’elle qualifie de « modèle le plus efficace de sa catégorie » et optimisé pour la latence.

Small 3 est censé pouvoir rivaliser avec Llama 3.3 70B et Qwen 32B, entre autres grands modèles, et constitue « un excellent remplacement ouvert pour les modèles propriétaires opaques comme GPT4o-mini ». Comme les autres modèles de Mistral AI, Small 3 est open source, publié sous la licence Apache 2.0.

Une utilisation locale

Conçu pour une utilisation locale, Small 3 fournit une base pour développer les capacités de raisonnement, explique Mistral. « Small 3 excelle dans les scénarios où des réponses rapides et précises sont essentielles », poursuit le communiqué, notant que le modèle comporte moins de couches que les modèles comparables, ce qui contribue à sa rapidité.

Small 3 a atteint une précision supérieure à 81 % sur le test de référence MMLU et n’a pas été formé avec l’apprentissage par renforcement (RL) ou les données synthétiques, ce qui, selon Mistral, le place « plus tôt dans le pipeline de production du modèle » que DeepSeek R1.

Créer des assistants virtuels en contact direct avec les clients

En faisant appel à un fournisseur tiers, Mistral AI a fait tester Small 3 par des évaluateurs humains avec plus de 1 000 questions de codage et généralistes. Une majorité de testeurs a préféré Small 3 à Gemma-2 27B et Qwen-2.5 32B, mais les chiffres étaient plus équitablement répartis lorsque Small 3 a été confronté à Llama-3.3 70B et GPT-4o mini.

© Mistral AI

Mistral recommande Small 3 pour créer des assistants virtuels en contact direct avec les clients, en particulier pour les besoins de traitement rapide comme la détection de fraude dans les services financiers, les conseils juridiques et les soins de santé.

Adapté aux informations sensibles

Small 3 peut également être utilisé pour la robotique et la fabrication et peut être idéal pour les « amateurs et les organisations qui manipulent des informations sensibles ou exclusives », car il peut être exécuté sur un MacBook avec un minimum de 32 Go de RAM.

© Mistral AI

Mistral AI a annoncé l’arrivée de davantage de modèles de différentes tailles « avec des capacités de raisonnement améliorées dans les semaines à venir ». Vous pouvez accéder à Small 3 sur HuggingFace ici.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.