Les travailleurs d’OpenAI, d’Anthropic et de Google DeepMind mettent en garde contre les dangers de l’IA

Les travailleurs d’OpenAI, d’Anthropic et de Google DeepMind mettent en garde contre les dangers de l’IA

Une poignée d’employés actuels et anciens d’OpenAI et d’autres grandes sociétés d’intelligence artificielle ont averti que la technologie présente de graves risques pour l’humanité dans une lettre publiée mardi, appelant les entreprises à mettre en œuvre des changements radicaux pour garantir la transparence et favoriser une culture du débat public.

La lettre, signée par 13 personnes, dont des employés actuels et anciens d’Anthropic et de DeepMind de Google, affirme que l’IA peut exacerber les inégalités, accroître la désinformation et permettre aux systèmes d’IA de devenir autonomes et de provoquer des décès importants. Bien que ces risques puissent être atténués, les entreprises qui contrôlent le logiciel bénéficient de « fortes incitations financières » pour limiter la surveillance, ont-ils déclaré.

Parce que l’IA n’est que vaguement réglementée, la responsabilité incombe aux internes de l’entreprise, ont écrit les employés, appelant les entreprises à lever les accords de non-divulgation et à accorder aux travailleurs des protections qui leur permettent de faire part de leurs préoccupations de manière anonyme.

Cette décision intervient alors qu’OpenAI est confronté à un exode de personnel. De nombreux critiques ont vu des départs importants – y compris celui du cofondateur d’OpenAI, Ilya Sutskever, et du chercheur principal Jan Leike – comme une réprimande des dirigeants d’entreprise, qui, selon certains employés, recherchent le profit au détriment de la sécurité des technologies d’OpenAI.

Daniel Kokotajlo, ancien employé d’OpenAI, a déclaré avoir quitté la start-up en raison du mépris de l’entreprise pour les risques liés à l’intelligence artificielle.

SE RATTRAPER

Des histoires résumées pour rester informé rapidement

“J’ai perdu l’espoir qu’ils agiraient de manière responsable, en particulier dans la recherche de l’intelligence artificielle générale”, a-t-il déclaré dans un communiqué, faisant référence à un terme très controversé désignant des ordinateurs équivalents à la puissance du cerveau humain.

“Eux et d’autres ont adhéré à l’approche” agir vite et casser les choses “, et c’est le contraire de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise”, a déclaré Kokotajlo.

Liz Bourgeois, porte-parole d’OpenAI, a déclaré que la société convient qu’« un débat rigoureux est crucial compte tenu de l’importance de cette technologie ». Les représentants d’Anthropic et de Google n’ont pas immédiatement répondu à une demande de commentaire.

Les employés ont déclaré qu’en l’absence de contrôle gouvernemental, les travailleurs de l’IA sont les « rares personnes » capables de demander des comptes aux entreprises. Ils ont déclaré qu’ils étaient paralysés par de « larges accords de confidentialité » et que les protections ordinaires des lanceurs d’alerte étaient « insuffisantes » parce qu’elles se concentrent sur les activités illégales et que les risques contre lesquels ils mettent en garde ne sont pas encore réglementés.

La lettre appelle les entreprises d’IA à s’engager sur quatre principes pour permettre une plus grande transparence et une plus grande protection des lanceurs d’alerte. Ces principes constituent un engagement à ne pas conclure ou appliquer des accords interdisant la critique des risques ; un appel à établir un processus anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations ; soutenir une culture de critique ; et une promesse de ne pas exercer de représailles contre les employés actuels et anciens qui partagent des informations confidentielles pour sonner l’alarme « après l’échec d’autres processus ».

Le Washington Post a rapporté en décembre que les hauts dirigeants d’OpenAI avaient fait craindre des représailles de la part du PDG Sam Altman – des avertissements qui ont précédé l’éviction temporaire du chef. Dans une récente interview en podcast, Helen Toner, ancienne membre du conseil d’administration d’OpenAI, a déclaré qu’une partie de la décision de l’organisation à but non lucratif de destituer Altman de son poste de PDG à la fin de l’année dernière était due en partie à son manque de communication franche sur la sécurité.

“Il nous a donné des informations inexactes sur le petit nombre de processus de sécurité formels que l’entreprise avait mis en place, ce qui signifie qu’il était fondamentalement impossible pour le conseil d’administration de savoir dans quelle mesure ces processus de sécurité fonctionnaient”, a-t-elle déclaré.Le salon TED sur l’IA” en mai.

La lettre a été approuvée par des sommités de l’IA, dont Yoshua Bengio et Geoffrey Hinton, considérés comme les « parrains » de l’IA, ainsi que par le célèbre informaticien Stuart Russell.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.