Le Pentagone finance de nouvelles conceptions de puces pour l’ère de l’IA

Le Pentagone finance de nouvelles conceptions de puces pour l’ère de l’IA

2024-03-07 04:34:04

Vous avez probablement entendu parler de Nvidia, qui vient de battre Aramco pour devenir le leader mondial troisième plus grande entreprise par capitalisation boursière. Mais cette valorisation élevée des actions révèle un gros problème : la demande de puces capables d’exécuter des applications d’IA à forte consommation d’énergie dépasse de loin l’offre. Il s’agit d’un problème particulièrement important pour l’armée, qui cherche à exécuter des programmes d’IA complexes dans des environnements où le rappel des clusters cloud des grandes entreprises ne sera pas possible en raison des interférences électromagnétiques, de l’éloignement, etc.

La DARPA finance la recherche de nouvelles puces pour faire ce travail. Mercredi, l’agence de recherche sur la défense a annoncé une subvention de 18,6 millions de dollars à EnCharge AI, une société californienne fondée en 2022 par Naveen Verma, professeur d’informatique à Princeton.

La subvention fait partie du programme OPTIMA (Optimum Processing Technology Inside Memory Arrays) de la DARPA, d’une valeur de 78 millions de dollars, qui vise à développer de nouveaux types de puces capables d’exécuter des applications d’IA en utilisant moins de ressources informatiques, ce qui permet également d’économiser de l’énergie et de la taille.

Verma et son équipe ont créé un nouveau type de puce pour le type d’IA appelé réseaux neuronaux alambiqués à grande échelle. Les puces d’aujourd’hui font généralement la navette entre les données mémoire externe et le mémoire intégrée située dans le processeur de la puce, les données sont donc effectivement stockées à un endroit mais traitées à un autre endroit. Cela entraîne un gaspillage d’énergie et des retards, tout comme si vous deviez constamment consulter un ouvrage de référence pour trouver des réponses que vous ne pourriez pas mémoriser.

Au lieu de cela, la puce de Verma fait informatique en mémoire. Leur processeur utilise « des condensateurs à doigts métal-oxyde-métal (MOM) plutôt que le calcul dans le domaine du courant, en s’appuyant sur les fonctions de transfert des transistors bitcell », a-t-il écrit dans un article. papier 2019. Cela a permis d’augmenter l’efficacité énergétique d’un facteur 16 et le débit d’un facteur 5. Cela pourrait permettre à des appareils beaucoup plus petits comme les téléphones et les ordinateurs portables d’exécuter des programmes d’IA beaucoup plus complexes sans avoir besoin de faire appel à de grands clusters de serveurs. “L’avenir consiste à décentraliser l’inférence de l’IA, à la libérer du centre de données et à l’introduire dans les téléphones, les ordinateurs portables, les véhicules et les usines”, a déclaré Verma dans un communiqué. communiqué de presse.

Plusieurs autres institutions anonymes participent également au programme OPTIMA.



#Pentagone #finance #nouvelles #conceptions #puces #pour #lère #lIA
1709788173

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.