Nouvelles Du Monde

Les employés d’OpenAI mettent en garde contre une culture du risque et des représailles

Les employés d’OpenAI mettent en garde contre une culture du risque et des représailles

Un groupe d’employés actuels et anciens d’OpenAI a publié une lettre publique avertissant que l’entreprise et ses concurrents développent l’intelligence artificielle avec des risques excessifs, sans surveillance suffisante et tout en muselant les employés qui pourraient être témoins d’activités irresponsables.

“Ces risques vont de l’aggravation des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité”, lit-on dans la lettre publiée sur droit d’avertir.ai. « Tant qu’il n’y aura pas de contrôle gouvernemental efficace sur ces sociétés, les employés actuels et anciens feront partie des rares personnes qui peuvent les tenir responsables. »

La lettre appelle non seulement OpenAI, mais toutes les sociétés d’IA à s’engager à ne pas punir les employés qui dénoncent leurs activités. Il appelle également les entreprises à mettre en place des moyens « vérifiables » permettant aux travailleurs de fournir des commentaires anonymes sur leurs activités. « Les protections ordinaires des lanceurs d’alerte sont insuffisantes car elles se concentrent sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés », indique la lettre. “Certains d’entre nous craignent raisonnablement diverses formes de représailles, compte tenu de l’histoire de tels cas dans l’industrie.”

Lire aussi  L'armée russe prépare une frappe puissante dans le Donbass - elle transfère des réserves de Zaporozhye à Donetsk ᐉ Nouvelles de Fakti.bg - Monde

Vous avez un conseil ?

Êtes-vous un employé actuel ou ancien d’OpenAI ? Nous aimerions avoir de vos nouvelles. À l’aide d’un téléphone ou d’un ordinateur non professionnel, contactez Will Knight à [email protected] ou en toute sécurité sur Signal à wak.01.


OpenAI a également récemment modifié son approche de la gestion de la sécurité. Le mois dernier, un groupe de recherche OpenAI chargé d’évaluer et de contrer les risques à long terme posés par les modèles d’IA les plus puissants de l’entreprise a été effectivement dissous après le départ de plusieurs personnalités éminentes et le reste des membres de l’équipe ont été absorbés dans d’autres groupes. Quelques semaines plus tard, la société a annoncé qu’il avait créé un comité de sûreté et de sécurité, dirigé par Altman et d’autres membres du conseil d’administration.

En novembre dernier, Altman a été licencié par le conseil d’administration d’OpenAI pour avoir prétendument omis de divulguer des informations et les avoir délibérément induits en erreur. Après une bagarre très publique, Altman est revenu dans l’entreprise et la plupart des membres du conseil d’administration ont été évincés.

Lire aussi  Dans quelle mesure les idées d’IA sont-elles adaptées en tant que modèle économique ?

“Nous sommes fiers de notre expérience en matière de fourniture des systèmes d’IA les plus performants et les plus sûrs et croyons en notre approche scientifique pour gérer les risques”, a déclaré la porte-parole d’OpenAI, Liz Bourgeois, dans un communiqué. « Nous convenons qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie et nous continuerons à collaborer avec les gouvernements, la société civile et d’autres communautés à travers le monde. »

Les signataires des lettres comprennent des personnes qui ont travaillé sur la sécurité et la gouvernance chez OpenAI, des employés actuels qui ont signé de manière anonyme et des chercheurs qui travaillent actuellement dans des sociétés d’IA rivales. Il a également été approuvé par plusieurs chercheurs de renom en IA, dont Geoffrey Hinton et Yoshua Bengio, qui ont tous deux remporté le prix Turing pour leurs recherches pionnières en IA, et Stuart Russellun expert de premier plan en matière de sécurité de l’IA.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT