« Nvidia reporte le GPU B200 pour centre de données à 2025 en raison de problèmes de conception » – Ordinateur – Actualités

La prochaine étape dans le développement de l’IA est l’utilisation des données commerciales, mais comme les entreprises souhaitent conserver leur source fermée, leur utilité est limitée.

Qu’est-ce qui est d’une utilité limitée ? Entraîner un modèle d’IA sur vos propres données ? C’est étrange que vous n’y voyiez aucune utilité. C’est comme le Saint Graal.

Les gens se tournent déjà vers leurs propres modèles, et le calcul de l’IA devient donc plus un produit commercialisable que la formation LLM (où cette dernière bénéficie principalement d’une grande puissance de calcul parallèle)

Je ne comprends pas cela. Quoi que les entreprises d’IA souhaitent former, vous aurez toujours besoin de matériel. Peu importe que ce soit local ou dans le cloud. Nvidia mérite son écosystème CUDA.

Nvidia voit que la première tendance « IA » est terminée et s’attend à des annulations ?

La demande augmentera toujours. Former l’IA coûte encore très cher. Il est fort possible qu’il devienne moins coûteux de réguler l’offre et la demande.

Je ne sais pas si vous vous en rendez compte, mais l’IA ne fait que commencer. C’est à peine dans les ordinateurs et les logiciels. La plupart des outils d’IA sont en phase bêta ou V1.

La demande en IA ne fera désormais qu’augmenter.

Le fait que les gens vendent ou achètent des actions ne revient ni plus ni moins à spéculer sur ces actions. Cela n’a pas grand-chose à voir avec la demande d’IA.

[Reactie gewijzigd door Coolstart op 4 augustus 2024 11:47]

2024-08-04 10:50:07
1722767053


#Nvidia #reporte #GPU #B200 #pour #centre #données #raison #problèmes #conception #Ordinateur #Actualités

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.