L’IA pourrait présenter un “risque d’extinction” semblable à une guerre nucléaire et à des pandémies, selon des experts

L’IA pourrait présenter un “risque d’extinction” semblable à une guerre nucléaire et à des pandémies, selon des experts

L’intelligence artificielle pourrait représenter un “risque d’extinction” pour l’humanité à l’échelle d’une guerre nucléaire ou de pandémies, et l’atténuation de ce risque devrait être une “priorité mondiale”, selon un lettre ouverte signé par des leaders de l’IA tels que Sam Altman d’OpenAI ainsi que Geoffrey Hinton, connu comme le “parrain” de l’IA.

La lettre ouverte d’une phrase, publiée par le Center for AI Safety à but non lucratif, est à la fois brève et inquiétante, sans extrapoler comment les plus de 300 signataires prévoient que l’IA se transformera en une menace existentielle pour l’humanité.

Dans un e-mail à CBS MoneyWatch, Dan Hendrycks, le directeur du Center for AI Safety, a écrit qu’il existe “de nombreuses voies vers les risques à l’échelle de la société liés à l’IA”.

“Par exemple, les IA pourraient être utilisées par des acteurs malveillants pour concevoir de nouvelles armes biologiques plus meurtrières que les pandémies naturelles”, a écrit Hendrycks. “Alternativement, des acteurs malveillants pourraient intentionnellement libérer une IA voyous qui tentent activement de nuire à l’humanité. Si une telle IA était suffisamment intelligente ou capable, elle pourrait poser un risque important pour la société dans son ensemble.”

Sam Altman (au centre), PDG d’OpenAI et inventeur du logiciel d’IA ChatGPT, discute avec le public après une table ronde à l’Université technique de Munich (TUM) en mai 2023.

Sven Hoppe / alliance photo via Getty Images


Les risques à plus long terme constituent également des menaces pour l’humanité, par exemple si les IA automatisent des parties de l’économie et que les humains abandonnent le contrôle de la technologie afin de rester compétitifs, a-t-il ajouté.

“Dans ce scénario, nous comptons de plus en plus sur les IA pour naviguer dans un paysage de plus en plus rapide et complexe”, a-t-il noté. “Cette dépendance croissante pourrait rendre l’idée de simplement” les fermer “non seulement perturbatrice, mais potentiellement impossible, conduisant à un risque que l’humanité perde le contrôle de son propre avenir.”

Altman plus tôt ce mois-ci a déclaré aux législateurs que l’IA pourrait “se tromper” et pourrait “causer un préjudice important au monde” à moins qu’il ne soit correctement réglementé. L’IA générative peut créer du texte, des photos et des vidéos qui peuvent être difficiles à distinguer des créations générées par l’homme, entraînant des problèmes tels que le Chanson générée par l’IA qui a cloné les voix des musiciens Drake et The Weeknd.


Brad Smith, président de Microsoft, dit qu’il pense que la réglementation de l’IA se produira dans l’année à venir

Cette chanson a finalement été retirée des plateformes de streaming après que le géant de l’édition Universal Music Group a déclaré qu’elle violait la loi sur le droit d’auteur.

Plus immédiatement, les experts soulignent les risques que l’IA pose à certains types de travailleurs, les chercheurs notant que la technologie pourrait supprimer des millions d’emplois. Selon un nouveau rapport des analystes d’UBS, l’adoption de l’IA sur le lieu de travail comporte des incertitudes et des risques – et pas seulement pour les emplois dans les entreprises qui emploient la technologie.

Par exemple, l’IA générative peut « halluciner » des réponses, ou un terme pour cracher des informations incorrectes qui semblent crédibles, un trait qui pourrait non seulement propager des informations erronées, mais poser un risque pour la crédibilité des entreprises qui l’utilisent, a noté UBS. Un tel cas s’est produit récemment lorsqu’un avocat a soumis un mémoire basé sur des recherches effectuées par ChatGPT – qui cas inventés qui n’existaient pas et ont insisté sur le fait qu’ils étaient réels.

Parmi les autres signataires de la lettre ouverte figurent des personnalités telles que le philosophe Daniel Dennett de Tufts, l’écologiste Bill McKibben du Middlebury College et le musicien Grimes.

2023-05-31 02:38:00
1685492218


#LIA #pourrait #présenter #risque #dextinction #semblable #une #guerre #nucléaire #des #pandémies #selon #des #experts

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.