L’intelligence artificielle de Red Hat

L’intelligence artificielle de Red Hat

2024-05-14 17:00:52

chapeau rouge annonce le lancement de IA Red Hat Enterprise Linux (IA RHEL)une plateforme de modélisation qui permet aux utilisateurs de développer, tester et déployer des modèles intelligence artificielle générative (GenAI) d’une manière plus simple. RHEL AI rassemble la famille des modèles de langage Granite Large Language Model (LLM), avec licence open source, IBM Researchles outils d’alignement de modèles de Laboratoire d’instructions basé sur la méthodologie LAB (Alignement à grande échelle pour chatBot) et une approche communautaire du développement de modèles à travers le projet InstructLab. L’ensemble de la solution est présenté sous la forme d’une image RHEL optimisée et amorçable pour le déploiement d’un seul serveur dans nuage ibridoen plus d’être inclus dans IA OpenShiftPlateforme d’apprentissage automatique hybride (MLOps) de Red Hat pour exécuter des modèles et InstructLabs à grande échelle dans des environnements de cluster distribués.

Le lancement de ChatGPT a suscité un énorme intérêt autour de l’IA générative, accélérant efficacement le rythme de l’innovation. Les entreprises ont commencé à passer des premières évaluations des services GenAI à la création d’applications basées sur l’IA. Un système en croissance rapide d’options de modèles ouverts a stimulé davantage d’innovation et montré comment il n’y aura pas de « taille unique ». Au lieu de cela, les clients bénéficieront de diverses alternatives pour répondre à des besoins spécifiques, qui seront encore accélérés par une approche ouverte de l’innovation.

La mise en œuvre d’une stratégie d’IA implique bien plus que la simple sélection d’un modèle. Les entreprises technologiques doivent disposer de l’expertise nécessaire pour affiner un certain modèle en fonction de leur cas d’utilisation spécifique et faire face aux coûts importants liés à la mise en œuvre de l’IA. Au pénurie de compétences en science des données Des exigences financières importantes s’ajoutent, notamment :

  • L’achat d’infrastructures ou la consommation de services d’intelligence artificielle
  • Le processus complexe d’ajustement des modèles d’IA pour répondre aux besoins spécifiques de l’entreprise
  • L’intégration de l’IA dans les applications métiers
  • Gestion du cycle de vie des applications et des modèles

Pour réellement réduire les barrières à l’entrée de l’innovation en matière d’IA, les entreprises doivent être en mesure de augmenter le nombre de personnes pouvant travailler sur des initiatives spécifiques en même temps maîtriser les coûts. Avec les outils d’alignement InstructLab, les modèles Granite et RHEL AI, Red Hat a l’intention d’appliquer les avantages de projets open source – librement accessible et réutilisable, totalement transparent et ouvert aux contributions – à GenAI dans le but de lever ces obstacles.

Ashesh Badani, vice-président senior et directeur des produits, Red Hat
GenAI représente une véritable révolution pour les entreprises, mais seulement si elles sont capables de mettre en œuvre et d’utiliser efficacement des modèles d’IA pour répondre à leurs besoins métiers spécifiques. RHEL AI et le projet InstructLab, ainsi que Red Hat OpenShift AI à grande échelle, sont conçus pour réduire bon nombre des obstacles qui s’opposent encore aujourd’hui à GenAI dans le cloud hybride, depuis les compétences limitées en science des données jusqu’aux ressources nécessaires, alimentant l’innovation dans à la fois les déploiements d’entreprise et les communautés en amont.

Étendre la portée de l’IA avec InstructLab

Recherche IBM il a créé la technique Alignement à grande échelle pour chatBot (LAB)une approche d’alignement de modèles qui utilise la génération de données synthétiques basée sur la taxonomie et un nouveau cadre de réglage multiphase. Cette technique rend le développement de modèles d’IA plus ouvert et accessible à tous les utilisateurs, réduisant ainsi le recours à des annotations humaines coûteuses et à des modèles propriétaires. Avec la méthode LAB, les modèles peuvent être améliorés en spécifiant les compétences et les connaissances liées à une taxonomie, en générant des données synthétiques à partir de ces informations à grande échelle pour influencer le modèle et en utilisant les données générées pour entraîner le modèle.

Lire aussi  Alimentez votre iPhone, AirPods, Apple Watch et iPad avec ce hub à 60 $

Après avoir réalisé que la méthode LAB pouvait contribuer à améliorer considérablement les performances des modèles, IBM et Red Hat ont décidé de lancer InstructLab, un communauté open source construit autour de la méthode LAB et des modèles open source Granite d’IBM. Le projet InstructLab vise à mettre le développement LLM entre les mains des développeurs, rendant la création et la contribution à un LLM aussi simple que la création et la contribution à tout autre projet open source.

Dans le cadre du lancement d’InstructLab, IBM a également publié un Famille de modèles Granite de code et de langue anglaisedisponible sous licence Apache avec une transparence totale sur les ensembles de données utilisés pour entraîner les modèles. Le modèle linguistique anglais Granite 7B a été intégré à la communauté InstructLab, où les utilisateurs finaux peuvent apporter leurs compétences et leurs connaissances pour l’améliorer collectivement, comme ils le feraient avec n’importe quel autre projet open source. Une prise en charge similaire pour les modèles de code Granite dans InstructLab sera bientôt disponible.

Lire aussi  Microsoft blâme les pirates russes liés à l'armée pour les attaques de rançongiciels en Pologne et en Ukraine

Innovation en matière d’IA open source sur une base Linux solide

RHEL AI s’appuie sur cette approche ouverte de l’innovation en IA, intégrant un version prête pour l’entreprise du projet InstructLab et des modèles de code et de langage Granite, combinés à la plate-forme Linux d’entreprise de pointe au monde pour simplifier le déploiement dans un environnement d’infrastructure hybride et aboutissant à une plate-forme de base pour introduire des modèles GenAI sous licence open source dans l’agence. RHEL IA comprend :

  • Modèles de langage et de code Granite sous licence open source, entièrement pris en charge et indemnisés par Red Hat
  • Une distribution prise en charge sur le cycle de vie d’InstructLab qui fournit une solution évolutive et rentable pour améliorer les capacités LLM et rendre les contributions de connaissances et de compétences accessibles à un éventail beaucoup plus large d’utilisateurs.
  • Instances d’exécution de modèle optimisées démarrables avec les modèles Granite et les packages d’outils InstructLab sous forme d’images RHEL, y compris Pytorch, les bibliothèques d’exécution et les accélérateurs matériels nécessaires pour NVIDIA, Intel et AMD
  • Support complet du cycle de vie de Red Hat, à commencer par une livraison fiable des produits, un support de production 24h/24 et 7j/7, un support du cycle de vie étendu et un modèle d’indemnisation de la propriété intellectuelle.

À mesure que les entreprises expérimentent et affinent de nouveaux modèles d’IA sur RHEL AI, elles peuvent faire évoluer ces flux de travail avec IA Red Hat OpenShiftqui inclura RHEL AI, et ils pourront profiter du moteur Kubernetes OpenShift pour former et servir des modèles d’IA à grande échelle, et les capacités MLOps intégrées d’OpenShift AI pour gérer le cycle de vie des modèles. OpenShift AI et RHEL AI seront également intégrés à IBM Watsonxqui offre des fonctionnalités supplémentaires pour le développement de l’IA d’entreprise, la gestion des données et la gouvernance.

Lire aussi  Boom de l'IA : le marché haussier des actions pourrait durer, selon le patron de l'investissement

Le cloud est hybride. L’intelligence artificielle aussi

Depuis plus de 30 ans, les technologies open source ont permis une innovation rapide et des réductions significatives des coûts informatiques, combinées à une réduction des obstacles à l’innovation. Depuis presque aussi longtemps, Red Hat est à la tête de cette tendance, depuis la fourniture de plates-formes Linux d’entreprise ouvertes avec RHEL au début des années 2000 jusqu’à la promotion des conteneurs et de Kubernetes comme base pour cloud hybride ouvert et informatique cloud native avec Red Hat OpenShift.

Cette poussée alimente les stratégies d’IA/ML à travers le cloud hybride ouvert, permettant aux charges de travail d’IA de s’exécuter là où résident les données, que ce soit dans le centre de données, dans plusieurs cloud publics ou en périphérie. Au-delà des charges de travail, la vision de Red Hat en matière d’IA s’appuie sur la formation et l’optimisation des modèles pour mieux répondre aux limitations liées à la souveraineté, à la conformité et à l’intégrité opérationnelle des données. La cohérence qu’offrent les plates-formes Red Hat dans tous ces environnements, quel que soit l’endroit où elles s’exécutent, est essentielle au maintien de l’innovation en matière d’IA.

RHEL AI et la communauté InstructLab concrétisent cette vision, en éliminant de nombreux obstacles à l’expérimentation et à la création de modèles d’IA et en fournissant les outils, les données et les concepts nécessaires pour alimenter la prochaine vague de charges de travail intelligentes.

Disponibilité

L’IA de Red Hat Enterprise Linux est désormais disponible disponible en aperçu développeur. S’appuyant sur l’infrastructure GPU disponible sur IBM Cloud, utilisée pour entraîner les modèles Granite et prendre en charge InstructLab, IBM Cloud ajoutera la prise en charge de RHEL AI et OpenShift AI. Cette intégration permettra aux entreprises de déployer plus facilement l’IA générative dans leurs applications critiques.



#Lintelligence #artificielle #Red #Hat
1715726661

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.