Même le “papa” de ChatGpt devient alarmiste à propos de l’IA. Mais les règles…

Même le “papa” de ChatGpt devient alarmiste à propos de l’IA.  Mais les règles…

2023-05-17 19:57:25

Le PDG d’OpenAI, Sam Altman, a mis en garde contre les dangers liés à l’émergence de nouveaux outils technologiques. Il faut une régulation impliquant le plus de pays possible, comme pour les armes nucléaires. La Maison Blanche prend des mesures pour apaiser les inquiétudes, mais il manque toujours un accord politique

Devant la commission Justice du Sénatla tête de OpenAI Sam Altmann il n’a pas mâché ses mots. Son entreprise « a été fondée sur la conviction que leIntelligence artificielle il a le potentiel d’améliorer presque tous les aspects de nos vies, mais il crée également de sérieux risques sur lesquels nous devons travailler afin de les contrôler. Ce qui est remis en cause, c’est avant tout la politique, qui devra réguler cet instrument de la même manière qu’elle l’a fait pour les armes nucléaires. « Il y a une possibilité que le États-Unis peut établir un ensemble de normes que d’autres pays peuvent respecter, mais cela semble être une idée irréalisable », a-t-il ajouté lors de sa première audition à la Congrès. Pour cela, il faut plutôt structurer une agence d’IAqui est en mesure de délivrer des licences et des normes de sécurité par lesquelles les nouveaux outils technologiques devront passer.

L’idée lancée par le PDG de l’entreprise la plus populaire du moment, considéré comme un gourou du milieu, taquine pas mal les législateurs américains, contrairement à ce que l’on aurait pu imaginer. “Je ne comprends pas comment quelqu’un peut dire que nous n’avons pas besoin d’une agence qui s’occupe de la technologie la plus transformatrice qui ait jamais existé”, a déclaré le républicain. Lindsey Grahamqui a comparé l’IA à un réacteur nucléaire: de même que ce dernier a besoin de garanties, le premier doit aussi en offrir. En fait, des chiffres comme Lina Khan (chef de la Commission fédérale du commerce) ils soutiennent que le gouvernement américain a déjà les outils pour faire face aux risques de ce secteur, et que la création d’une autre autorité ne peut que diluer la capacité d’affecter et de fragmenter un système déjà divisé entre diverses agences fédérales, des lois approuvées par des États individuels et une juridiction ordinaire (qui, aux États-Unis, peut être à la fois fédérale et état).

La bulle a maintenant éclaté. De plus en plus, les principales voix de ce monde mettent en garde contre les dangers potentiels que l’IA pourrait avoir dans notre vie quotidienne. Ils avaient été avant Elon Musk et un millier d’autres experts, qui avaient écrit leurs préoccupations dans une lettre ; puis ce fut le tour du père de l’IA, Geoffrey Hinton, qui a décidé de se retirer parce qu’il avait peur de sa propre créature; enfin le discours d’Altman, qui a exposé des craintes tangibles au Congrès.

Comme ceux sur l’impact que la technologie peut avoir sur les élections, pour lesquels il se déclare “nerveux” à la seule pensée. Vois juste le photo fausse retouchées par AI, qui dépeignent des politiciens américains dans des situations extrêmes – comme un Donald Trump avec des menottes enlevées par des policiers – ce qui a cependant généré de la confusion, avec de nombreux citoyens qui les ont prises pour de vrai.

Cependant, tous les maux ne font pas mal. ChatGpt il s’est retrouvé au centre de tous les débats parce que son apport extraordinaire a été compris, si grand qu’il fait peur. Cependant, comme l’a souligné Altman, l’impact que cela aura sur le monde du travail est encore incertain. “C’est très difficile à prévoir, mais je pense qu’il y aura plus d’emplois et que le travail d’aujourd’hui sera amélioré.” Presque tout dépendra du gouvernement et de sa collaboration avec les entreprises. “Nous devons penser que le ChatGpt est un outil, pas une créature, et peut donc être contrôlé”, a-t-il ajouté.

Tant que cela se fait de manière responsable et démocratique. Dans ce sens, Washington il semblerait que ce soit au travail, même si ce n’est pas simple à gérer. Mais le temps presse, de nouveaux outils d’IA voient le jour quotidiennement et, avec eux, la peur des Américains augmente. D’après une dernière enquête menée par Reuter e Ipsosceux qui craignent qu’ils ne nuisent à la civilisation sont arrivés au 61%.

Le gouvernement des États-Unis fait donc quelque chose, quoique tardivement. Le projet a été publié en octobre Charte des droits de l’IAqui devrait impliquer des systèmes sûrs et efficaces, la protection de la discrimination algorithmique, la protection des données personnelles, des explications qui avertissent l’utilisateur de ce que la machine qu’il utilise décide, et la mise à disposition d’une personne physique là où l’IA ne parvient pas à arriver.

Cependant, il y a deux problèmes liés à ce document : il n’est pas contraignant, donc il n’a pas de valeur juridique, et il n’a aucun effet sur les grandes entreprises, bien qu’elles aient contribué à sa rédaction. Comme indiqué à Filaire et Alouette Nelsonchef adjoint deBureau pour les politiques scientifiques et technologiques (Ostp), « nous savons aussi que les principes ne suffisent pas. Mais ce n’est qu’une avancée. Ce n’est que le début, le point de départ ». Sur le deuxième écart, le maison Blanche en fait, il se déplace pour essayer de le remplir en essayant de mettre les rênes Grande technologiemais les difficultés auxquelles il fait face sont assez grandes.

En avril dernier, un projet de loi a également été présenté au Sénat pour la création d’un force d’intervention, qui peut identifier le meilleur moyen entre les mains des autorités pour réduire les menaces envers les utilisateurs. Comme l’a expliqué Altman, la peur dépend de “où la technologie ira” et si elle “sera utilisée de la mauvaise manière”. Sinon, c’est un atout à exploiter.



#Même #papa #ChatGpt #devient #alarmiste #propos #lIA #Mais #les #règles..
1684356768

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.