Home » International » Stargate créera des emplois. Mais pas pour les humains.

Stargate créera des emplois. Mais pas pour les humains.

by Nouvelles

Mardi, je pensais que je pourrais écrire une histoire sur le implications de l’abrogation par l’administration Trump du décret Biden sur l’IA. (La plus grande implication : qu’il ne soit plus demandé aux laboratoires de signaler les capacités dangereuses au gouvernement, même s’ils peuvent le faire de toute façon.) Mais ensuite deux histoires plus importantes et plus importantes sur l’IA ont été abandonnées : l’une technique et l’autre économique.

Inscrivez-vous ici pour explorer les problèmes majeurs et complexes auxquels le monde est confronté et les moyens les plus efficaces de les résoudre. Envoyé deux fois par semaine.

Stargate est un programme d’emploi – mais peut-être pas pour les humains

L’histoire économique est Stargate. En collaboration avec des sociétés comme Oracle et Softbank, le co-fondateur d’OpenAI, Sam Altman, a annoncé un Un investissement ahurissant prévu de 500 milliards de dollars dans la « nouvelle infrastructure d’IA pour OpenAI », c’est-à-dire pour les centres de données et les centrales électriques qui seront nécessaires pour les alimenter.

Les gens se sont immédiatement posé des questions. Il y a d’abord eu celui d’Elon Musk déclaration publique qu’« ils n’ont pas réellement d’argent », suivi de la réplique du PDG de Microsoft, Satya Nadella : «Je suis bon pour mes 80 milliards de dollars.» (N’oubliez pas que Microsoft détient une participation importante dans OpenAI.)

Deuxièmement, certains contesté L’affirmation d’OpenAI selon laquelle le programme « créera des centaines de milliers d’emplois aux États-Unis ».

Pourquoi? Eh bien, le seul moyen plausible pour les investisseurs de récupérer leur argent sur ce projet est que, comme l’entreprise l’a parié, OpenAI développe bientôt des systèmes d’IA capables d’effectuer la plupart des travaux que les humains peuvent effectuer sur un ordinateur. Les économistes sont débattre âprement exactement quoi impacts économiques cela aurait été le cas si cela s’était produit, même si la création de centaines de milliers d’emplois ne semble pas en être une, du moins pas à long terme. (Divulgation : Vox Media est l’un des nombreux éditeurs à avoir signé des accords de partenariat avec OpenAI. Nos reportages restent indépendants sur le plan rédactionnel.)

L’automatisation de masse s’est déjà produite, au début de la révolution industrielle, et certaines personnes je m’attends sincèrement qu’à long terme, ce sera une bonne chose pour la société. (Mon point de vue : cela dépend vraiment, vraiment de si nous avons un plan pour maintenir la responsabilité démocratique et une surveillance adéquate, et pour partager les bénéfices du nouveau monde alarmant de la science-fiction. À l’heure actuelle, nous n’avons absolument pas cela, donc je je n’apprécie pas la perspective d’être automatisé.)

Mais même si vous êtes plus enthousiasmé que moi par l’automatisation, « nous remplacerons tout le travail de bureau par des IA » – qui est assez largement compris comme étant le modèle économique d’OpenAI – est un plan absurde présenté comme un programme d’emploi. Mais un investissement de 500 milliards de dollars visant à supprimer d’innombrables emplois n’obtiendrait probablement pas l’imprimatur du président Donald Trump, comme l’a fait Stargate.

DeepSeek a peut-être trouvé un renforcement des commentaires de l’IA

L’autre grande histoire de cette semaine était DeepSeek r1, un nouvelle version de la startup chinoise d’IA DeepSeek, que la société présente comme un rival de l’o1 d’OpenAI. Ce qui fait de r1 un gros problème, ce sont moins les implications économiques que les implications techniques.

Pour apprendre aux systèmes d’IA à donner de bonnes réponses, nous évaluons les réponses qu’ils nous donnent et les formons à se concentrer sur celles que nous évaluons fortement. Il s’agit de « l’apprentissage par renforcement à partir de la rétroaction humaine » (RLHF), et c’est la principale approche de formation des LLM modernes depuis qu’une équipe OpenAI l’a mise en œuvre. (Le processus est décrit dans cet article de 2019.)

Mais ce n’est pas grâce à RLHF que nous avons obtenu le programme de jeux d’IA ultra surhumain AlphaZero. Celui-ci a été entraîné en utilisant une stratégie différente, basée sur le jeu personnel : l’IA était capable de s’inventer de nouvelles énigmes, de les résoudre, d’apprendre de la solution et de s’améliorer à partir de là.

Cette stratégie est particulièrement utile pour enseigner à un modèle comment faire rapidement tout ce qu’il peut faire cher et lentement. AlphaZero pourrait lentement et longuement envisager de nombreuses politiques différentes, déterminer laquelle est la meilleure, puis tirer les leçons de la meilleure solution. C’est ce type de jeu autonome qui a permis à AlphaZero d’améliorer considérablement les moteurs de jeu précédents.

Bien sûr, les laboratoires ont essayé de trouver quelque chose de similaire pour les grands modèles de langage. L’idée de base est simple : vous laissez un modèle considérer une question pendant une longue période, ce qui peut nécessiter de nombreux calculs coûteux. Ensuite, vous l’entraînez sur la réponse qu’il a finalement trouvée, en essayant de produire un modèle capable d’obtenir le même résultat à moindre coût.

Mais jusqu’à présent, « les grands laboratoires ne semblaient pas avoir beaucoup de succès avec ce type de RL auto-améliorable », a déclaré Peter Schmidt-Nielsen, ingénieur en apprentissage automatique. a écrit dans une explication de la signification technique de DeepSeek r1. Ce qui a si impressionné (et si alarmé) les ingénieurs par r1, c’est que l’équipe semble avoir fait des progrès significatifs en utilisant cette technique.

Cela signifierait que les systèmes d’IA pourraient apprendre à faire rapidement et à moindre coût tout ce qu’ils savent faire lentement et à moindre coût – ce qui permettrait certaines des améliorations rapides et choquantes des capacités dont le monde a été témoin avec AlphaZero, uniquement dans certains domaines de l’économie. bien plus important que de jouer à des jeux.

Autre fait notable : ces avancées proviennent d’une société chinoise d’IA. Étant donné que les sociétés américaines d’IA n’hésitent pas à utiliser le menace de domination chinoise de l’IA pour promouvoir leurs intérêts – et étant donné qu’il existe réellement une course géopolitique autour de cette technologie – cela en dit long sur la rapidité avec laquelle la Chine pourrait rattraper son retard.

Beaucoup de gens que je connais en ont marre d’entendre parler de l’IA. Ils en ont marre L’IA slop dans leurs fils d’actualité et des produits d’IA qui sont pires que les humains mais très bon marché, et ils ne soutiennent pas vraiment qu’OpenAI (ou n’importe qui d’autre) devienne le les premiers billionnaires du monde en automatisant des industries entières.

Mais je pense qu’en 2025, l’IA aura vraiment de l’importance – non pas parce que ces systèmes puissants seront développés, ce qui semble en bonne voie à ce stade, mais parce que la société est prête à se lever et à insister pour que cela soit fait de manière responsable.

Lorsque les systèmes d’IA commenceront à agir de manière indépendante et à commettre des crimes graves (tous les grands laboratoires seront travailler sur les « agents » qui peuvent agir de manière indépendante dès maintenant), allons-nous tenir leurs créateurs pour responsables ? Si OpenAI fait une offre ridiculement basse à son entité à but non lucratif dans sa transition vers un statut entièrement à but lucratif, le gouvernement interviendra-t-il pour faire appliquer la loi sur les organisations à but non lucratif ?

Beaucoup de ces décisions seront prises en 2025, et les enjeux sont très importants. Si l’IA vous met mal à l’aise, c’est bien plus une raison pour exiger une action que pour vous en déconnecter.

Une version de cette histoire a été initialement publiée dans le bulletin d’information Future Perfect. Inscrivez-vous ici !

NDLR, 25 janvier 2025, 9 h HE : Cette histoire a été mise à jour pour inclure une divulgation sur la relation de Vox Media avec OpenAI.

Vous avez lu 1 article le mois dernier

Chez Vox, nous sommes inébranlables dans notre engagement à couvrir les questions qui comptent le plus pour vous : les menaces contre la démocratie, l’immigration, les droits reproductifs, l’environnement et la polarisation croissante à travers ce pays.

Notre mission est de fournir un journalisme clair et accessible qui vous permet de rester informé et engagé dans le façonnement de notre monde. En devenant membre Vox, vous renforcez directement notre capacité à fournir des rapports approfondis et indépendants qui génèrent des changements significatifs.

Nous comptons sur des lecteurs comme vous – rejoignez-nous.

Swati Sharma

Rédacteur en chef de Vox

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.