Geoffrey Hinton se dit fier que son élève ait aidé à licencier Sam Altman

Geoffrey Hinton se dit fier que son élève ait aidé à licencier Sam Altman
  • Geoffrey Hinton n’est pas fan du leadership de Sam Altman.
  • Hinton a déclaré mardi lors d’une conférence de presse qu’il pensait qu’Altman privilégiait les bénéfices plutôt que la sécurité.
  • Le protégé de Hinton, le cofondateur d’OpenAI, Ilya Sutskever, a joué un rôle clé dans la brève éviction d’Altman.

Merci de vous être inscrit !

Accédez à vos sujets favoris dans un flux personnalisé lorsque vous êtes en déplacement. téléchargez l’application

En cliquant sur « S’inscrire », vous acceptez notre Conditions d’utilisation et politique de confidentialité. Vous pouvez vous désabonner à tout moment en visitant notre page Préférences ou en cliquant sur « se désabonner » au bas de l’e-mail.

Geoffrey Hinton, récemment lauréat du prix Nobel, se dit fier qu’un de ses anciens étudiants ait eu un rôle à jouer dans la brève éviction de Sam Altman d’OpenAI en novembre.

Hinton, qui a reçu mardi le prix Nobel de physique 2024, s’exprimait lors d’une conférence de presse le même jour lorsqu’il s’est prononcé sur Altman et OpenAI.

“Je suis particulièrement fier du fait qu’un de mes étudiants ait licencié Sam Altman”, a déclaré Hinton, faisant référence à son protégé et ancien scientifique en chef d’OpenAI, Ilya Sutskever.

Sutskever a obtenu son doctorat. en informatique de la Université de Toronto en 2013. Hinton était le directeur de doctorat de Sutskever.

“OpenAI a donc été créé en mettant l’accent sur la sécurité. Son objectif principal était de développer l’intelligence artificielle générale et de garantir sa sécurité”, a déclaré mardi Hinton.

“Et au fil du temps, il s’est avéré que Sam Altman était beaucoup moins préoccupé par la sécurité que par les profits. Et je pense que c’est regrettable”, a-t-il ajouté.

Hinton a déclaré à Nikkei Asia dans une interview publiée en mars qu’il pensait que Sutskever avait fait preuve de clairvoyance en reconnaissant le potentiel de l’IA – et ses dangers.

“En 2012, il semblait encore que ces intelligences numériques n’étaient pas aussi performantes que les humains. Elles pourraient peut-être être capables de reconnaître des objets et des images de la même manière que les humains, mais à cette époque, nous ne pensions pas qu’elles seraient capables pour gérer le langage et comprendre des choses compliquées”, a déclaré Hinton.

“Ilya a changé d’avis avant moi. Il s’est avéré qu’il avait raison”, a-t-il ajouté.

Sutskever a quitté OpenAI en mai, quelques mois seulement après que le conseil d’administration d’OpenAI ait décidé de licencier Altman en tant que PDG.

Le 17 novembre 2023, le conseil d’administration de la société a déclaré dans un communiqué qu’il retirait Altman parce qu’il « n’était pas toujours franc dans ses communications avec le conseil d’administration ». Le conseil d’administration n’a cependant pas donné plus de détails sur le licenciement d’Altman.

Sutskever, qui a cofondé OpenAI avec Altman, a ensuite exprimé ses regrets pour sa décision de licencier Altman. Il s’est joint à d’autres employés pour demander la réintégration d’Altman.

Après son départ, Sutskever a déclaré en juin qu’il créait une nouvelle société d’IA, Safe Superintelligence Inc.

Les représentants d’Altman chez OpenAI, Hinton et Sutskever chez Safe Superintelligence Inc. n’ont pas immédiatement répondu aux demandes de commentaires de Business Insider envoyées en dehors des heures normales de bureau.

Hinton, connu comme le « parrain de l’IA » pour ses travaux pionniers dans le domaine des réseaux neuronaux, met depuis longtemps en garde contre les dangers de l’IA.

Lors d’une interview avec « 60 Minutes » de CBS, diffusée en octobre 2023, Hinton a déclaré qu’il était possible que l’IA puisse éventuellement manipuler les humains.

“Ils seront capables de manipuler les gens, n’est-ce pas ?” Hinton a déclaré à “60 Minutes”.

“Et ils seront très doués pour convaincre les gens parce qu’ils auront appris de tous les romans jamais écrits – de tous les livres de Machiavel, de toutes les connivences politiques, ils sauront tout ça. Ils sauront comment faites-le”, a-t-il poursuivi.

Histoires connexes

Interrogé pour commenter l’interview, Hinton a déclaré à Jordan Hart de BI qu’il pourrait falloir entre cinq et 20 ans avant que l’IA ne devienne une menace réelle. Hinton a également reconnu qu’« il est encore possible que la menace ne se matérialise pas ».

Certes, Hinton n’est pas le seul à remettre en question le leadership d’Altman dans OpenAI.

Sous Altman, OpenAI, fondée en 2015 en tant qu’organisation à but non lucratif, devrait devenir une entreprise à but lucratif au cours des deux prochaines années.

Le cofondateur d’Altman devenu rival, Elon Musk, l’a critiqué à plusieurs reprises depuis qu’il a quitté le conseil d’administration de l’entreprise en 2018.

“OpenAI a été créée en tant qu’entreprise open source (c’est pourquoi je l’ai nommée ‘Open’ AI), une société à but non lucratif pour servir de contrepoids à Google, mais elle est maintenant devenue une entreprise fermée à profit maximum, effectivement contrôlée par Microsoft. “, a écrit Musk dans un article X en février 2023.

“Ce n’est pas du tout ce que je voulais”, a ajouté Musk.

#Geoffrey #Hinton #dit #fier #son #élève #ait #aidé #licencier #Sam #Altman

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.