des améliorations majeures pour Red Hat Enterprise Linu …

des améliorations majeures pour Red Hat Enterprise Linu ...



Ce fut rapide. Début septembre Red Hat a publié Red Hat Enterprise Linux AI (RHEL AI) 1.0. Aujourd’hui, Red Hat a annoncé la disponibilité générale de RHEL AI 1.2. Cette dernière version introduit plusieurs améliorations clés visant à rationaliser le développement, le test et le déploiement de grands modèles de langage (LLM).

Avant d’aborder les nouveautés et les améliorations, voici un aperçu de ce qu’apporte RHEL AI.

Il est conçu pour rationaliser le développement, le test et le déploiement des modèles d’IA générative (gen AI). RHEL AI vise également à rendre la formation des LLM abordable.

RAG et nouvelles prises en charge matérielles

Cette nouvelle plateforme combine la famille Granite large language model (LLM) d’IBM Research sous licence libre, les outils d’alignement InstructLab basés sur la méthodologie LAB, et une approche collaborative du développement de modèles via le projet d’IA libre InstructLab.

RHEL AI utilise également le Retrieval-Augmented Generation (RAG) pour permettre aux LLM d’accéder à des connaissances externes approuvées, et stockées dans des bases de données, des documents et d’autres sources de données. Cette approche renforce la capacité de RHEL AI à fournir la bonne réponse plutôt qu’une réponse qui semble correcte.

Cette nouvelle génération de RHEL AI bénéficie d’une meilleure prise en charge matérielle. La nouvelle version prend désormais en charge les serveurs Lenovo ThinkSystem SR675 V3, offrant des options de pré-installation en usine. En mode preview, RHEL AI 1.2 introduit la prise en charge des accélérateurs AMD Instinct, notamment les GPU MI300x pour l’entraînement et l’inférence et les GPU MI210 pour les tâches d’inférence.

Apprentissage sur des données synthétiques

RHEL AI 1.2 étend également sa portée aux principales plateformes cloud. Les utilisateurs peuvent désormais déployer RHEL AI sur Azure et Google Cloud Platform (GCP), en plus de la prise en charge existante d’AWS et d’IBM Cloud.

Le logiciel a également fait l’objet d’améliorations significatives. La nouvelle fonction « Periodic Checkpointing » enregistre les longs cycles de formation à intervalles réguliers pendant la mise au point. Les utilisateurs peuvent reprendre l’entraînement à partir du dernier point de contrôle sauvegardé au lieu de recommencer. De quoi gagner un temps précieux et économiser des ressources informatiques.

RHEL AI 1.2 est livré avec PyTorch Fully Sharded Data Parallel (FSDP). Présenté en preview, FSDP réduit considérablement les temps d’apprentissage avec des données synthétiques. Cette technologie répartit les paramètres d’un modèle, les gradients et les états de l’optimiseur sur des instances parallèles (par exemple, des GPU). De quoi réduire les temps d’apprentissage.

Rendre la formation LLM plus accessible aux programmeurs, et pas seulement aux scientifiques des données

RHEL AI s’inscrit dans la démarche de Red Hat visant à rendre la formation LLM plus accessible aux programmeurs, et pas seulement aux scientifiques des données.

« RHEL AI donne la possibilité aux experts de l’IA, et pas seulement aux data scientists, de contribuer à un modèle d’IA générique construit pour l’usage à travers le cloud hybride. »

Enfin, avec la sortie de RHEL AI 1.2, Red Hat supprime également la prise en charge de la version 1.1, donnant aux utilisateurs 30 jours pour passer à la dernière version. Cette itération rapide souligne l’offensive agressive de Red Hat sur le marché de l’IA d’entreprise. Pour le meilleur ou pour le pire, le développement de l’IA s’accélère à un rythme de plus en plus rapide.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.