Parce que l’IA n’est que vaguement réglementée, la responsabilité incombe aux internes de l’entreprise, ont écrit les employés, appelant les entreprises à lever les accords de non-divulgation et à accorder aux travailleurs des protections qui leur permettent de faire part de leurs préoccupations de manière anonyme.
Cette décision intervient alors qu’OpenAI est confronté à un exode de personnel. De nombreux critiques ont vu des départs importants – y compris celui du cofondateur d’OpenAI, Ilya Sutskever, et du chercheur principal Jan Leike – comme une réprimande des dirigeants d’entreprise, qui, selon certains employés, recherchent le profit au détriment de la sécurité des technologies d’OpenAI.
Daniel Kokotajlo, ancien employé d’OpenAI, a déclaré avoir quitté la start-up en raison du mépris de l’entreprise pour les risques liés à l’intelligence artificielle.
SE RATTRAPER
Des histoires résumées pour rester informé rapidement
“J’ai perdu l’espoir qu’ils agiraient de manière responsable, en particulier dans la recherche de l’intelligence artificielle générale”, a-t-il déclaré dans un communiqué, faisant référence à un terme très controversé désignant des ordinateurs équivalents à la puissance du cerveau humain.
“Eux et d’autres ont adhéré à l’approche” agir vite et casser les choses “, et c’est le contraire de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise”, a déclaré Kokotajlo.
Liz Bourgeois, porte-parole d’OpenAI, a déclaré que la société convient qu’« un débat rigoureux est crucial compte tenu de l’importance de cette technologie ». Les représentants d’Anthropic et de Google n’ont pas immédiatement répondu à une demande de commentaire.
Les employés ont déclaré qu’en l’absence de contrôle gouvernemental, les travailleurs de l’IA sont les « rares personnes » capables de demander des comptes aux entreprises. Ils ont déclaré qu’ils étaient paralysés par de « larges accords de confidentialité » et que les protections ordinaires des lanceurs d’alerte étaient « insuffisantes » parce qu’elles se concentrent sur les activités illégales et que les risques contre lesquels ils mettent en garde ne sont pas encore réglementés.
La lettre appelle les entreprises d’IA à s’engager sur quatre principes pour permettre une plus grande transparence et une plus grande protection des lanceurs d’alerte. Ces principes constituent un engagement à ne pas conclure ou appliquer des accords interdisant la critique des risques ; un appel à établir un processus anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations ; soutenir une culture de critique ; et une promesse de ne pas exercer de représailles contre les employés actuels et anciens qui partagent des informations confidentielles pour sonner l’alarme « après l’échec d’autres processus ».
Le Washington Post a rapporté en décembre que les hauts dirigeants d’OpenAI avaient fait craindre des représailles de la part du PDG Sam Altman – des avertissements qui ont précédé l’éviction temporaire du chef. Dans une récente interview en podcast, Helen Toner, ancienne membre du conseil d’administration d’OpenAI, a déclaré qu’une partie de la décision de l’organisation à but non lucratif de destituer Altman de son poste de PDG à la fin de l’année dernière était due en partie à son manque de communication franche sur la sécurité.
“Il nous a donné des informations inexactes sur le petit nombre de processus de sécurité formels que l’entreprise avait mis en place, ce qui signifie qu’il était fondamentalement impossible pour le conseil d’administration de savoir dans quelle mesure ces processus de sécurité fonctionnaient”, a-t-elle déclaré.Le salon TED sur l’IA” en mai.
La lettre a été approuvée par des sommités de l’IA, dont Yoshua Bengio et Geoffrey Hinton, considérés comme les « parrains » de l’IA, ainsi que par le célèbre informaticien Stuart Russell.