2024-05-28 19:59:00
Deux anciens membres du conseil d’administration d’OpenAI ont déclaré que les gouvernements devaient réglementer les sociétés d’intelligence artificielle.
Helen Toner et Tasha McCauley étaient les seules femmes au conseil d’administration d’OpenAI et ont quitté l’entreprise en novembre.
Ils maintiennent leur décision de licencier le PDG Sam Altman parce qu’ils craignent qu’il ait créé une culture « toxique ».
Il s’agit d’une traduction automatique d’un article de nos collègues américains de Business Insider. Il a été automatiquement traduit et vérifié par un véritable éditeur.
Deux anciens membres du conseil d’administration d’OpenAI ont déclaré qu’on ne pouvait pas faire confiance aux sociétés d’intelligence artificielle pour se contrôler elles-mêmes. Au lieu de cela, une réglementation par des tiers est nécessaire pour les tenir responsables.
Helen Toner et Tasha McCauley étaient membres du conseil d’administration d’OpenAI. Mais ils ont ensuite démissionné en novembre au milieu de la campagne chaotique visant à évincer le PDG Sam Altman. Altman a été rapidement réintégré au poste de PDG quelques jours après son licenciement. Il est revenu au conseil d’administration cinq mois plus tard.
Dans un article d’opinion publié dimanche pour «L’économisteToner et McCauley ont écrit qu’ils maintenaient leur décision de licencier Altman. Dans ce contexte, ils citent des déclarations de dirigeants selon lesquelles le co-fondateur avait créé une « culture toxique du mensonge ». Son comportement pourrait également être qualifié de « violence psychologique ».
Depuis le retour d’Altman au conseil d’administration en mars, OpenAI a été critiqué pour son engagement en matière de sécurité. La société a également été critiquée pour avoir utilisé une voix IA sur Chat GPT-4o qui ressemblait étrangement à l’actrice Scarlett Johansson. Avec Altman à la barre, ont écrit Toner et McCauley, on ne pouvait plus faire confiance à OpenAI pour se contrôler.
« Nous pensons également que les développements depuis son retour dans l’entreprise – y compris la réintégration du conseil d’administration et le départ de talents axés sur la sécurité – ne présagent rien de bon pour l’expérience d’autonomie d’OpenAI », ont-ils écrit.
Toner et McCauley ont fait valoir que les gouvernements doivent intervenir et créer « un cadre réglementaire efficace dès maintenant ». C’est la seule façon pour OpenAI de remplir sa mission déclarée au profit de « toute l’humanité ».
Les décideurs politiques doivent agir « indépendamment » des entreprises d’IA comme OpenAI
Cependant, Toner et McCauley relativisent également leur appel à une réglementation étatique. Ils ont reconnu que des lois mal conçues pourraient potentiellement entraver « la concurrence et l’innovation » en pesant sur les petites entreprises.
« Il est essentiel que les décideurs politiques agissent indépendamment des principales sociétés d’IA lorsqu’ils élaborent de nouvelles réglementations », expliquent-ils. « Ils doivent être attentifs aux failles, aux « fossés » réglementaires qui isolent les premiers entrants de la concurrence, et au potentiel de capture réglementaire. »
En avril, le département américain de la Sécurité intérieure a annoncé la création d’un comité de sécurité de l’intelligence artificielle. Il vise à fournir des recommandations pour le « développement et l’utilisation sûrs de l’IA » dans les infrastructures critiques des États-Unis. Outre Altman, les 22 membres du comité comprennent également les dirigeants d’autres grandes entreprises technologiques. Il s’agit par exemple du PDG de Nvidia, Jensen Huang, et du PDG d’Alphabet, Sundar Pichai.
Bien que le conseil de sécurité comprenne des représentants d’entreprises technologiques à but non lucratif, les dirigeants d’entreprises à but lucratif sont surreprésentés. Les éthiciens de l’IA qui avec «Ars Technica« Les intervenants ont exprimé leur inquiétude quant au fait que l’influence démesurée des entreprises à but lucratif pourrait conduire à des politiques favorisant l’industrie au détriment de la sécurité.
“Si nous sommes tous d’accord sur le fait qu’il est important pour nous d’assurer la sécurité des personnes lorsqu’il s’agit d’utiliser l’IA, alors je pense que nous pouvons convenir qu’il est important d’avoir autour de la table des personnes qui se soucient de cela” et se spécialisent dans la mise en place de technologies. ” Margaret Mitchell a déclaré à Ars Technica. Elle est experte en éthique de l’IA chez Hugging Face.
Le département américain de la Sécurité intérieure n’a pas répondu à une demande de commentaires.
Axel Springer, la société mère de Business Insider, a conclu un accord mondial qui permet à OpenAI de former ses modèles sur le reporting de ses marques médias.
#OpenAI #devrait #être #réglementé #par #lÉtat #déclarent #les #anciens #membres #conseil #dadministration
1716926849