Home » Sciences et technologies » Séoul accueille le deuxième sommet sur la sécurité de l’intelligence artificielle : « Il y a plus de réglementation pour les sandwicheries que pour les entreprises d’IA »

Séoul accueille le deuxième sommet sur la sécurité de l’intelligence artificielle : « Il y a plus de réglementation pour les sandwicheries que pour les entreprises d’IA »

by Nouvelles
Séoul accueille le deuxième sommet sur la sécurité de l’intelligence artificielle : « Il y a plus de réglementation pour les sandwicheries que pour les entreprises d’IA »

2024-05-20 21:00:53

Les dirigeants du monde n’ont pas encore pris conscience des risques impliqués intelligence artificielle (IA) et ils doivent se “réveiller”. C’est ce qu’affirment 25 des plus grands experts mondiaux dans ce domaine dans une lettre publiée ce lundi dans le magazine Scienceà la veille du Sommet sur la sécurité de l’IA qui est célébrée à Séoul entre le 21 et le 22 mai.

La conférence désormais organisée par la Corée du Sud, qui est également accueillie par le Royaume-Uni, vise à poursuivre le travail et les conversations qui ont eu lieu il y a six mois à Bletchley Park, un événement qui s’est conclu par la signature par l’Union européenne, les États-Unis et la Chine du premier accord mondial reconnaissant « les opportunités et les risques » et s’engageant à ce que « les gouvernements travaillent ensemble pour relever les défis les plus importants ».

Les signataires de la lettre, dont Geoffrey Hinton, Yoshua Bengio, Andrew Yao, Dawn Song, Sheila McIlraith et Daniel Kahnema, affirment que “les progrès réalisés” depuis que la soi-disant déclaration de Bletchley Park a été signée “cela a été insuffisant” et considèrent qu’il est « impératif que les dirigeants mondiaux prennent au sérieux la possibilité de développer des systèmes d’IA généralistes très puissants au cours de la décennie en cours ou de la prochaine », qui dépassent les capacités humaines dans de nombreux domaines critiques“.

Bien qu’ils reconnaissent que les gouvernements ont débattu de la question et ont tenté d’introduire des lignes directrices, ils considèrent que ces mesures sont insuffisantes compte tenu des progrès rapides et importants attendus par de nombreux experts.

En outre, ils dénoncent que dans les recherches actuelles sur l’IA seulement entre 1 et 3% des publications concernent la sécurité de la même. “Nous ne disposons pas de mécanismes ou d’institutions pour empêcher les abus et les imprudences, y compris l’utilisation de systèmes autonomes capables d’agir et de poursuivre des objectifs de manière indépendante”, affirment-ils.

La lettre rappelle que “l’IA fait déjà des progrès rapides dans des domaines critiques tels que le piratage informatique, la manipulation sociale et la planification stratégique, et pourrait bientôt poser des défis sans précédent”, comme celui de savoir si “les systèmes d’IA peuvent gagner la confiance des humains, acquérir des ressources et influencer les décideurs clés”. .

Ces experts estiment que « la cybercriminalité à grande échelle, la manipulation sociale et autres préjudices pourraient augmenter rapidement. Dans un conflit ouvert, Les systèmes d’IA pourraient déployer de manière autonome diverses armes, y compris biologiques. “Par conséquent, il existe une possibilité très réelle que les progrès effrénés de l’IA aboutissent à des pertes de vies humaines et de biosphère à grande échelle, ainsi qu’à la marginalisation ou à l’extinction de l’humanité”, préviennent-ils.

“Lors du dernier sommet sur l’IA, le monde a convenu que nous devions agir, mais Il est désormais temps de passer de vagues propositions à des engagements concrets. “Ce document fournit de nombreuses recommandations importantes sur ce que les entreprises et les gouvernements devraient s’engager à faire”, dit-il. Philippe Torr, chercheur au Département d’ingénierie de l’Université d’Oxford.

« Un document consensuel »

Dans les paroles de Stuart Russell, professeur d’informatique à l’Université de Californie à Berkeley, est “un document consensuel d’experts de premier plan et appelle à une réglementation stricte de la part des gouvernements, et non à des codes volontaires”.

Pour ce scientifique britannique, « il est temps de prendre au sérieux les systèmes avancés d’IA, car ce ne sont pas des jouets. Augmenter ses capacités avant de comprendre comment le sécuriser est totalement imprudent. Les entreprises se plaindront du fait que les réglementations sont trop difficiles à respecter et qu’elles étouffent l’innovation. C’est ridicule. “Il y a plus de réglementations pour les sandwicheries que pour les entreprises d’IA”, explique Russell.

Des mesures pour renforcer la sécurité

Parmi les recommandations adressées aux gouvernements incluses dans la lettre figurent la création d’institutions composées d’experts en intelligence artificielle qui surveillent son développement et agissent de manière agile et rapide, et l’octroi à ces centres d’un financement plus important que celui prévu dans les plans actuels. À titre de comparaison, ils soulignent que l’Institut américain pour la sécurité de l’IA dispose actuellement d’un budget annuel de 10 millions de dollars, contre 6,7 milliards de dollars dont dispose la Food and Drug Administration (FDA) des États-Unis.

Une autre mesure qu’ils proposent consiste à exiger des évaluations des risques beaucoup plus rigoureuses, au lieu de s’appuyer sur des évaluations volontaires ou peu détaillées. Ils considèrent également que Toutes les entreprises d’IA doivent être tenues de donner la priorité à la sécurité et de démontrer que leurs systèmes ne peuvent pas causer de dommages. Cela inclut le recours à des « dossiers de sécurité » (utilisés pour d’autres technologies critiques pour la sécurité, comme l’aviation), qui confient la tâche de démontrer la sécurité aux développeurs d’IA.

Les experts qui signent la lettre appellent également à « mettre en œuvre des normes d’atténuation adaptées aux niveaux de risque posés par les systèmes d’IA ». Une priorité urgente, selon eux, est d’établir des politiques qui s’activent automatiquement lorsque l’IA atteint certains jalons de capacité. Si l’IA progresse rapidement, des exigences strictes entrent automatiquement en vigueur, mais si les progrès ralentissent, les exigences peuvent être assouplies.

Les gouvernements doivent être prêts à prendre les devants en matière de réglementation pour les futurs systèmes d’IA exceptionnellement performants. Cela impliquerait d’autoriser le développement de ces systèmes, de restreindre leur autonomie dans des rôles sociétaux clés ou d’arrêter leur développement et leur déploiement en réponse à des capacités préoccupantes.

“En développant l’IA, l’humanité crée quelque chose de plus puissant qu’elle-même, qui pourrait échapper à notre contrôle et mettre en danger la survie de notre espèce. Au lieu de s’unir contre cette menace commune, les humains se battent les uns contre les autres. ” L’humanité semble déterminée à se contrôler. nous sommes fiers d’être les animaux les plus intelligents de la planète. Il semble donc que l’évolution passe de la survie des plus aptes à l’extinction des plus intelligents”, a déclaré l’historien et écrivain israélien. Yuval Noah Harari.

Pour lui, Jeff Clune, professeur d’IA à l’Université de Colombie-Britannique au Canada, nous exhorte à nous préparer à « des risques qui nous semblent aujourd’hui relever de la science-fiction », tout comme des technologies telles que les vols spatiaux, les armes nucléaires ou Internet nous paraissaient il y a des années. Parmi ces risques, il mentionne « les systèmes d’IA piratant les réseaux et infrastructures critiques, la manipulation politique, les robots soldats IA et les drones tueurs entièrement autonomes, et même les systèmes d’IA essayant d’échapper à nos efforts pour les arrêter ».



#Séoul #accueille #deuxième #sommet #sur #sécurité #lintelligence #artificielle #réglementation #pour #les #sandwicheries #pour #les #entreprises #dIA
1716282432

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.