À l’inverse, l’objectif d’Intel est de permettre « l’IA partout » en mettant l’accent sur la périphérie et les appareils, en particulier l’IA sur PC (Intel Core Ultra). NVIDIA s’est moins concentré sur ce domaine, car les GPU pour centres de données/cloud constituent toujours un marché en expansion rapide, a noté Heyden.
Des LLM plus petits : une ouverture pour Intel ?
Les LLM utilisés pour les outils genAI peuvent consommer de grandes quantités de cycles de processeur et être coûteux à utiliser. Des modèles plus petits, davantage axés sur l’industrie ou l’entreprise, peuvent souvent fournir de meilleurs résultats adaptés aux besoins de l’entreprise, et de nombreuses organisations d’utilisateurs finaux et fournisseurs ont indiqué que c’était leur orientation future.
“Intel [is] très optimiste quant à l’opportunité de petits LLM et [is] cherchent à intégrer cela dans leur stratégie « IA partout ». ABI Research convient que permettre l’IA partout nécessite une consommation d’énergie plus faible, des modèles genAI moins coûteux, associés à un matériel économe en énergie et à faible TCO », a déclaré Hayden.
2024-06-05 13:00:00
1717582825
#Les #nouvelles #puces #dIntel #peuventelles #rivaliser #avec #Nvidia #dans #lunivers #lIA #Monde #lordinateur