Red Hat Enterprise Linux AI (RHEL AI) est officielle. Cette plateforme est destinée à simplifier l’adoption à l’échelle de l’entreprise en offrant une image RHEL entièrement optimisée et bootable pour les déploiements de serveurs dans des environnements de cloud hybride. Ces instances d’exécution de modèles bootable optimisées fonctionnent avec les modèles Granite et les packages InstructLab. Elles incluent des bibliothèques d’exécution Pytorch optimisées et des accélérateurs GPU pour AMD Instinct MI300X, les GPU Intel et NVIDIA et les frameworks NeMo.
Le programme est conçu pour rationaliser le développement, le test et le déploiement de modèles d’IA générative (gen AI). Cette nouvelle plateforme fusionne la famille de grands modèles de langage (LLM) Granite d’IBM Research sous licence open-source, les outils d’alignement InstructLab basés sur la méthodologie LAB et une approche collaborative du développement de modèles via le projet InstructLab.
La méthodologie LAB
IBM Research a été le pionnier de la méthodologie LAB, qui utilise la génération de données synthétiques et la mise au point multiphase pour aligner les modèles d’IA/ML sans effort manuel coûteux. L’approche LAB, affinée par la communauté InstructLab, permet aux développeurs de construire et de contribuer aux LLM comme ils le feraient pour n’importe quel projet open-source.
Avec le lancement d’InstructLab, IBM a également publié certains modèles de langage et de code Granite en anglais sous une licence Apache, fournissant des ensembles de données transparents pour la formation et les contributions de la communauté. Le modèle de langue anglaise Granite 7B est désormais intégré à InstructLab, où les utilisateurs peuvent améliorer ses capacités en collaboration.
RHEL AI est également intégré à OpenShift AI, la plateforme d’opérations d’apprentissage automatique (MLOps) de Red Hat. Celle-ci permet la mise en œuvre de modèles à grande échelle dans des clusters Kubernetes distribués.
L’IA n’est pas bon marché
L’entraînement des principaux grands modèles de langage (LLM) coûte des dizaines de millions. Et ce, avant même de commencer à penser à l’affinage pour des cas d’utilisation spécifiques. RHEL est la tentative de Red Hat de ramener ces coûts astronomiques sur terre.
Red Hat y parvient partiellement en utilisant la génération augmentée de récupération (Retrieval-Augmented Generation ou RAG). La RAG permet aux LLM d’accéder à des connaissances externes approuvées stockées dans des bases de données, des documents et d’autres sources de données. Cela améliore la capacité de RHEL à fournir la bonne réponse plutôt qu’une réponse qui semble juste.
Cela signifie également que l’on peut former des instances RHEL à partir des experts en la matière de son entreprise sans avoir besoin d’un doctorat en apprentissage automatique.
Dans un communiqué, Joe Fernandes, vice-président de la plateforme Foundation Model de Red Hat, a déclaré : « RHEL AI permet aux experts du domaine, et pas seulement aux data scientists, de contribuer à un modèle d’IA de génération de données conçu sur mesure dans le cloud hybride, tout en permettant aux organisations informatiques de faire évoluer ces modèles pour la production via Red Hat OpenShift AI. »
RHEL AI n’est lié à aucun environnement unique. Il est conçu pour fonctionner où que se trouvent les données, que ce soit sur site, en périphérie ou dans un cloud public. Cette flexibilité est essentielle lors de la mise en œuvre de stratégies d’IA car elle évite d’avoir à remanier complètement son infrastructure existante.
Disponible sur les principales plateformes cloud
Le programme est désormais disponible sur Amazon Web Services (AWS) et IBM Cloud sous forme d’offre d’abonnement « Bring Your Own (BYO) ». Dans les prochains mois, il sera disponible en tant que service sur AWS, Google Cloud Platform (GCP), IBM Cloud et Microsoft Azure.
Dell Technologies a annoncé une collaboration visant à intégrer RHEL AI aux serveurs Dell PowerEdge. Ce partenariat vise à simplifier le déploiement de l’IA en fournissant des solutions matérielles validées, notamment le calcul accéléré NVIDIA, optimisé pour RHEL.
De notre point de vue, RHEL AI représente un changement significatif dans la façon dont les entreprises abordent l’IA. En combinant la puissance de l’open source avec un support de niveau entreprise, Red Hat se positionne à l’avant-garde de la révolution de l’IA.
Le véritable test, bien sûr, sera l’adoption et les applications dans le monde réel. Mais si l’on se fie aux antécédents de Red Hat, RHEL AI pourrait bien être la plateforme qui fera sortir l’IA du domaine des géants de la technologie pour la mettre entre les mains d’entreprises de toutes tailles.