UALink fabrique une alternative à Nvidia NVLink pour accélérer les liens avec l’accélérateur d’IA David Perera (@daveperera) , Rashmi Ramesh (rashmiramesh_) • 16 janvier 2025
Image : Shutterstock
Le fabricant d’appareils Apple a rejoint le conseil d’administration d’un groupe industriel récemment constitué qui vise à établir des normes ouvertes pour connecter directement les clusters de puces accélératrices d’IA dans les centres de données.
Voir aussi : Détection et réponse aux fuites de données LLM pour les outils de recherche d’IA d’entreprise
L’Ultra Accelerator Link Consortium a développé la spécification UALink indépendante des puces pour câbler 1 024 accélérateurs (des puces GPU modifiées pour la spécialisation dans les applications d’IA) afin qu’ils puissent communiquer directement. La connexion directe optimise le calcul parallèle et le débit de données élevé qui rendent les GPU efficaces pour entraîner de grands modèles de langage. Il évite les processeurs en tant qu’intermédiaires – ou comme l’a exprimé un porte-parole du consortium dans un e-mail : il réduit “le nombre de widgets” et réduit ainsi les limites de latence et de bande passante.
Le consortium est largement considéré comme une tentative de l’industrie de s’approprier le marché exclusif NVLien norme utilisée par le géant des puces IA Nvidia. Elle s’est engagée à rendre les spécifications accessibles au public au cours des trois premiers mois de cette année. La spécification peut fonctionner avec les puces Nvidia, a déclaré le porte-parole, mais n’est pas compatible avec NVLink.
« UALink s’avère très prometteur pour relever les défis de connectivité et créer de nouvelles opportunités pour étendre les capacités et les demandes en matière d’IA. » dit Becky Loop, directrice de l’architecture de plateforme chez Apple.
À mesure que les modèles d’IA grandissent, ils ont besoin de plus de mémoire et de puissance de traitement, ce qui signifie répartir le travail sur de nombreux GPU connectés dans un groupe, ou « pod ». Selon la spécification UALink, les GPU sont connectés par des commutateurs UALink, qui garantissent que lorsqu’un GPU doit accéder à la mémoire d’un autre GPU, il peut le faire rapidement, avec un seul saut via le commutateur. La connexion du commutateur est plus rapide que les vitesses PCIe Gen5 de 128 Go sur une liaison à 16 voies, a déclaré le porte-parole.
Le défi de passer par le CPU pour communiquer entre les GPU est que chaque étape du processus ajoute du retard. L’une de ces étapes devient souvent un goulot d’étranglement, limitant la vitesse globale du transfert de données.
Apple partage son nouveau poste au conseil d’administration avec le géant de la technologie Alibaba et la société de conception de semi-conducteurs Synopsys. Intel, AMD, Google, AWS, Microsoft et Meta font également partie du consortium de plus de 65 membres.
L’implication d’Apple dans UALink semble faire partie de ses investissements croissants dans l’infrastructure d’IA sous la bannière Apple Intelligence. Les informations signalé qu’Apple travaille sur une nouvelle puce de serveur qui devrait dynamiser les opérations de son centre de données pour les services d’IA.
#Apple #rejoint #consortium #UALink #pour #connectivité #des #puces