2025-01-08 19:04:00
MADRID, 8 Ene. (Portail/EP) –
Il Jensen Huang, PDG de Nvidia a assuré que son Les puces d’intelligence artificielle (IA) évoluent et améliorer leurs performances plus rapide que prévu dans la loi de Moore, qui réduira les coûts d’utilisation des modèles d’IA, tout en plaidant pour un avenir basé sur une IA super intelligente pour réaliser tous types de tâches et promouvoir la robotique.
La loi de Moore, conçue par Gordon Moore, cofondateur d’Intel en 1965, prédit l’évolution de la puissance de calcul tous les deux ans. Plus précisément, il s’agit d’une loi qui, sur la base des avancées du secteur technologique, prévoyait que le le nombre de transistors utilisés sur une puce doublerait environ tous les deux ansavec un augmentation minime du coût.
Autrement dit, comme Intel lui-même l’explique sur votre site internetcombien Plus il y a de transistors ou de composants dans un appareil, le coût par appareil est réduittandis que le les performances augmentent. Il s’agit donc d’une approche pertinente pour l’avancement du secteur technologique, puisqu’elle a entraîné de multiples améliorations de la capacité des appareils informatiques, ainsi qu’une réduction de leur coût.
Compte tenu de cela, le PDG de Nvidia s’est prononcé en faisant référence à la loi de Moore et a assuré que Les puces IA de Nvidia « progressent beaucoup plus vite » que cette prédiction et, par conséquent, le Les systèmes d’IA avancent à leur propre rythme.
C’est ce que Huang a dit dans des déclarations à TechCrunch dans le cadre du salon technologique CES 2025, qui a indiqué que, par exemple, son dernier processeur conçu pour les centres de données, le superpuce GB200 NVL72permet d’obtenir 30 fois plus de performances pour les charges de travail d’inférence LLMpar rapport à la capacité que fournirait la puce H100 de la génération précédente.
Comme l’a expliqué Huang, cela est dû au fait que Nvidia peut actuellement créer simultanément l’architecture, la puce, le système, les bibliothèques et les algorithmes. “Si nous faisons cela, nous pouvons avancer plus vite que la loi de Moore, car nous pouvons innover à tous les niveaux“, a-t-il déclaré.
Dans ce cadre, le directeur général s’engage à loi dédiée à l’avancement des systèmes d’IAqui est basé sur trois points d’échelle, tels que le calcul du temps de pré-formation, de post-formation et de test.
Il pré-entraînement fait référence à la phase initiale au cours de laquelle les modèles d’IA apprennent des modèles dérivés de grandes quantités de données. De son côté, le posentrenamiento concerne le raffinement des réponses du modèle grâce à la rétroaction humaine. Quant au calcul du temps de testest le raisonnement du modèle, la phase d’inférence avec laquelle il prend la décision sur la réponse qu’il doit renvoyer aux utilisateurs.
Le dernier permet au modèle d’IA de réfléchir plus en détail Mais la réponse à chaque question de l’utilisateur est aussi la pièce la plus chère lors de l’utilisation de modèles d’IA.
Selon Huang, tout comme la loi de Moore « a été très importante dans l’histoire de l’informatique car elle réduisait les coûts de calcul », l’évolution de l’inférence aura le même effet, où Nvidia augmente les performances de ses processeurs. “Le même cela se produira avec l’inférence, où nous augmenterons les performances et, par conséquent, le coût de l’inférence sera inférieur“, a déclaré le directeur.
Avec cette approche, des modèles comme celui récemment présenté par ouvrir o3, qui utilise plus de puissance de calcul lors de l’inférence pour réfléchir davantage à ses réponses, peut être moins cher avec le tempsgrâce à des puces comme celle mentionnée ci-dessus de Nvidia, GB200 NVL72.
Autrement dit, l’objectif de Nvidia est continuer à développer des puces plus performantes pour alimenter les tâches d’IA, afin de générer des prix plus abordables dans l’utilisation quotidienne de cette technologie et dans les innovations technologiques. “La solution directe et immédiate au calcul en période de test, tant en termes de performances que de prix abordable, consiste à augmenter notre capacité de calcul”, a-t-il souligné.
UN AVENIR AVEC UNE IA SUPERINTELLIGENTE
En plus de tout cela, lors d’une réunion avec la presse au CES, à laquelle Engadget a eu accès, le PDG de Nvidia a également prédit un l’avenir avec “l’IA superintelligente” lors de l’exécution de diverses tâches au quotidien.
Plus précisément, Huang a annoncé que les utilisateurs disposeront de services d’IA superintelligents qui permettront rédiger, analyser des problèmes, gérer la planification de la chaîne d’approvisionnement, écrire des « logiciels » ou concevoir des puces. Par ailleurs, il a également souligné que va dynamiser l’industrie de la robotique avec des avancées telles que celles récemment annoncées dans Omniverse et sa nouvelle plateforme Cosmos World Foundation.
À cet égard, il a demandé si le robots intelligents Ils peuvent finir par nuire aux humains Compte tenu de ces progrès, Huang a souligné que cette technologie « peut être utilisée de nombreuses manières » et qu’elle ne doit pas nécessairement être nocive, mais plutôt “ce sont les humains” qui peuvent l’utiliser de manière nuisible.
“Je crois que les machines sont des machines”, a-t-il déclaré tout en soulignant que l’IA et les robots intelligents seront du côté des humains pourquoi “ils vont être construits de cette façon.”
#Les #puces #Nvidia #progressent #vite #loi #Moore #qui #réduira #les #coûts #dutilisation #des #modèles
1736398248