Trois signaux d’alarme urgents sur l’IA que le Congrès devra traiter en 2024

Trois signaux d’alarme urgents sur l’IA que le Congrès devra traiter en 2024

2023-12-23 22:14:20

À une époque où les promesses et les périls de l’intelligence artificielle sont plus grands que jamais, les dirigeants fédéraux élus étudient les mesures indispensables pour réglementer l’industrie.

La série continue de discours du chef de la majorité au Sénat, Charles Schumer (DN.Y.). Forum sur l’IA constitue un espace public important pour un débat ouvert. Le récent discours du président Biden décret sur l’IA offre des conseils précieux sur la transparence au secteur privé afin d’améliorer la sûreté et la sécurité.

Ces actions sont des étapes positives. Mais ils ne vont pas assez loin.

Les systèmes d’IA ont un impact élevé. Certes, ces impacts peuvent être merveilleux : l’IA peut sauver des vies en améliorer la précision du diagnostic en radiologie, par exemple. Mais une utilisation irresponsable de l’IA peut également entraîner des préjudices insidieux.

Lorsqu’ils sont utilisés lors du recrutement, les algorithmes d’IA peuvent refuser systématiquement des emplois aux personnes âgées ou handicapéespratiquement sans détection. La désinformation générée par l’IA peut déstabiliser les marchés ou les élections. Et l’empreinte carbone de l’IA provenant de la fabrication, du stockage des données et de la formation des modèles reste largement ignorée, masquant ainsi ses effets environnementaux négatifs potentiellement importants.

Ces risques, ainsi que d’autres, rendent plus urgent que jamais la nécessité pour les États-Unis d’adopter une réglementation et une surveillance globales. Au cours de l’année à venir, le Congrès peut et doit jouer un rôle central pour garantir que nous profitons des avantages de l’IA, tout en contrôlant les risques – pour les individus, les organisations, la société et l’environnement.

Toutefois, à court terme, trois domaines méritent d’être prioritaires, même si une législation globale nécessite encore plus de temps :

  1. La législation du Congrès devrait imposer la divulgation de l’utilisation de l’IA, en commençant par les entités du gouvernement fédéral. Les gens ont le droit de savoir quand un algorithme influence les opportunités liées à l’embauche et à l’emploi, à l’éducation, au logement, au crédit, aux prêts et aux soins de santé. La notification renforce la confiance du public et permet une surveillance collective des risques. La ville de New York loi récemment promulguée exiger des employeurs qu’ils divulguent leur utilisation de l’IA pour sélectionner les candidats à un emploi est un exemple louable, mais incomplet. Au-delà de la notification aux utilisateurs, les fournisseurs d’IA doivent expliquer les objectifs des systèmes et documenter leur efficacité. Une validation rigoureuse protège les individus contre les évaluations biaisées et incorrectes et empêche les organisations d’acheter des outils inefficaces. Les normes de transparence doivent également être significatives et non obscurcies. Lorsque la ville de New York a déplacé le système de correspondance qu’il utilise pour déterminer les placements au collège en ligne, il a divulgué ses numéros de loterie sous forme de longues chaînes de chiffres et de caractères, ou nombres hexadécimaux, plutôt que sous forme de percentiles compréhensibles. Des situations comme celles-ci ne contribuent guère à informer le public. Au lieu de cela, le Congrès devrait fixer des exigences de divulgation compréhensibles pour les gouvernements des États et locaux recevant des fonds fédéraux.
  2. Le Congrès devrait mandater une enquête approfondie sur l’impact environnemental de l’IA. La puissance de calcul nécessaire à l’IA produit déjà plus d’émissions de carbone que l’industrie aérienne, mais nous ne disposons pas actuellement de suffisamment d’informations – ni même de moyens fiables d’obtenir des informations – pour le mesurer. Avec les bonnes données, le Congrès peut décourager financièrement l’utilisation inutile ou improductive de l’IA en quantifiant son empreinte environnementale de bout en bout et en prenant en compte ces informations dans le système fiscal.
  3. Le Congrès devrait augmenter considérablement les investissements fédéraux dans la recherche, l’éducation et la formation responsables en matière d’IA. Un tel financement permettrait aux chercheurs de toutes disciplines – informatique, droit, sciences sociales et éthique – d’évaluer les biais dans les systèmes d’IA, de développer des techniques pour renforcer l’équité et d’établir les meilleures pratiques qui résistent aux rigueurs d’un examen scientifique objectif. S’appuyer uniquement sur l’autorégulation des géants de la technologie dont les valorisations se chiffrent en milliers de milliards de dollars et dont les intérêts personnels sont considérables s’est révélé dangereusement naïf. Au lieu de cela, les subventions fédérales versées par des agences telles que la National Science Foundation devraient financer des travaux universitaires indépendants. Justificatif Programmes d’alphabétisation en IA viendrait compléter ces recherches. Cela contribuerait à bâtir des citoyens informés, capables de s’engager en toute connaissance de cause dans un discours civique et de faire des choix dans les urnes qui peuvent façonner la manière dont l’IA est déployée dans leurs communautés. D’où viendrait l’argent? Le Congrès devrait exiger que les entités commerciales qui capitalisent sur l’IA consacrent une partie substantielle de leurs bénéfices à la recherche et à l’éducation responsables en matière d’IA. Le déséquilibre entre les avantages financiers tirés par les entités commerciales par rapport au fardeau sociétal que représente le contrôle des outils d’IA est flagrant. Et même si certaines entreprises font engagements volontaires en faveur d’une IA responsable et de la sécurité de l’IA, l’ampleur de leur contribution est dérisoire par rapport à leurs valorisations. Une option prometteuse consiste à imposer une taxe sur l’IA à fort impact, similaire à une taxe carbone, et à utiliser les fonds collectés pour soutenir des efforts responsables de recherche, d’éducation et de réglementation en matière d’IA.

En résumé, l’ère de l’IA nécessite un leadership visionnaire pour exploiter les avantages de la technologie tout en atténuant les dommages potentiels. Le Congrès devrait jouer un rôle central dans l’impact de l’IA sur les générations futures. Si une législation responsable est adoptée, nous pourrons utiliser l’IA pour prendre des décisions plus éclairées dans des domaines critiques de notre vie quotidienne sans compromettre nos fondements éthiques.

D’ici là, l’impact de ces systèmes pourrait entraîner des dommages catastrophiques ou irréversibles pour de nombreuses personnes.

Julia Stoyanovich est professeure agrégée d’informatique et d’ingénierie et de science des données, et directrice du Center for Responsible AI à la Tandon School of Engineering de l’Université de New York.

Copyright 2023 Nexstar Media Inc. Tous droits réservés. Ce matériel ne peut pas être publié, diffusé, réécrit ou redistribué.



#Trois #signaux #dalarme #urgents #sur #lIA #Congrès #devra #traiter
1703366992

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.