Jeux de hasard le jour de Skynet

Chaque 29 août – hier – nombreux sont ceux qui se souviennent de cette date de 1997, à laquelle le supercalculateur Skynet aurait pris conscience de lui-même dans la série de films. Terminateur et a déclenché une guerre des machines contre les humains qui a anéanti une bonne partie de la population mondiale. Vingt-sept ans après cette étape fictive, l’intelligence artificielle ne s’est pas rebellée contre l’humanité, même si certaines voix accréditées comme Geoffrey Hinton ou Yuval Noah Harari, entre autres, n’excluent pas qu’un jour cela se produise et demandent des mesures de contrôle préalables. Alors qu’OpenAI semble se rapprocher de l’intelligence artificielle générale (AGI), une intelligence qui égale ou dépasse les capacités cognitives humaines, certaines voix d’alarme se font entendre, dont beaucoup proviennent de la société ChatGPT elle-même. L’automne s’annonce mouvementé.

Le flux d’informations sur le projet Strawberry s’est accéléré ces derniers mois. Cette semaine c’était le web Les informationsqui après s’être entretenu avec deux personnes connaissant la nouvelle IA, a expliqué qu’elle sera meilleure en mathématiques et en programmation que n’importe quel chatbot, en plus d’être orientée vers une recherche approfondie. Plus tôt ce mois-ci, Sam Altman, PDG d’Open AI, a laissé entendre qu’une avancée décisive était proche avec une photo de son jardin publiée sur le réseau social X.

L’IA du Strawberry Project sera capable de résoudre des problèmes complexes et même l’un des jeux du New York Times pour lequel les IA semblent mal entraînées. Les informations suggèrent qu’OpenAI l’utilise pour générer des données de formation de qualité, les mêmes que celles générées par les humains, pour former un nouveau modèle de langage, nommé Orion, afin d’éviter certaines des erreurs dans les tests et l’échec des modèles actuels lorsque des informations sont inventées. , erreurs connues sous le nom d’« hallucinations ». Ces progrèsEnsemble, ils pourraient devenir une nouvelle vague transformatrice de l’IA, mais poseraient également un risque pour la sécurité. Ces derniers mois, Altman a vu partir de nombreux membres de son équipe.

Certains de ceux qui ont quitté l’entreprise soulignent le manque de mesures de sécurité et de contrôle dans le développement de leurs modèles. Aujourd’hui, le licenciement temporaire de Greg Brockman, président d’OpenAI et l’un des 11 cofondateurs de l’entreprise, a été annoncé. Auparavant, Ilya Sutskever et Andrej Karpathy étaient partis. Plus récemment, John Schulman et Peter Deng se sont dit au revoir. L’une des définitions les plus célèbres d’Altman vient d’un autre co-fondateur, Paul Graham, qui disait de lui en 2014 : « Vous pourriez le parachuter sur une île pleine de cannibales et revenir dans 5 ans et il serait le roi. »

Un parachutiste au-dessus d’une île

Grok

Gary Marcus, psychologue et chercheur cognitif, spécialisé en IA, a parlé avec certaines des personnes qui ont quitté OpenAI ces derniers mois. L’un d’eux, William Saunders, ancien membre du département technique de l’entreprise, a souligné sa méfiance à l’égard de la direction actuelle : « nous avons rejoint OpenAI parce que nous voulions garantir la sécurité des systèmes d’IA incroyablement puissants que l’entreprise développe. Mais nous avons abandonné OpenAI parce que nous n’avions plus confiance dans sa capacité à développer ses systèmes d’IA de manière sûre, honnête et responsable. Cet ancien employé trouve terrifiant que les PDG d’OpenAI et d’Anthropic puissent « prendre des décisions d’un impact extraordinaire sans l’approbation de quiconque ».

En dehors de l’Europe, qui a déjà approuvé une loi sur l’intelligence artificielle qui sera appliquée dans ses normes les plus rigoureuses au début de l’année prochaine, en Californie, on étudie un projet de loi qui a été abaissé au cours de son traitement après avoir entendu les allégations des entreprises. IA. Le texte juridique actuellement en débat est plus réactif que proactif, puisqu’il ne permet pas, par exemple, au procureur général de poursuivre les entreprises pour négligence en matière de sécurité avant de provoquer une catastrophe, ni de créer une agence chargée de contrôler le respect de la norme. Ils n’auront même pas besoin de certifier leurs tests ou de donner des assurances raisonnables quant à la sécurité. Il leur suffira de prendre des « précautions raisonnables ». Et tout cela, précisément, à la date à laquelle Skynet s’est rebellé. Non pas qu’ils l’aient fait exprès.

Jumeau numérique pour les incendies de forêt

La NASA a développé le projet Jumeau numérique des feux de forêtun outil basé sur l’intelligence artificielle capable de prédire la trajectoire des incendies de forêt en temps réel. L’agence assure que le projet atteint une résolution de deux ordres de grandeur supérieure à celle des modèles globaux actuels et peut être développé en quelques minutes par rapport aux heures nécessaires pour affiner les modèles actuels.

Nvidia s’envole avec l’IA

Le fabricant de puces Nvidia a présenté cette semaine ses résultats. Les revenus de l’activité centres de données de l’entreprise, qui englobe ses puces d’IA, ont grimpé de 154 % sur un an pour atteindre 26,3 milliards de dollars, dépassant également les attentes des analystes. La société prévoit un chiffre d’affaires de 32,5 milliards de dollars pour le trimestre en cours, supérieur aux attentes de 31,7 milliards de dollars.

Lire aussi

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.