La Maison Blanche a publié deux politiques longues et détaillées sur le développement et l’utilisation de l’intelligence artificielle – une l’année dernière et une le mois dernier. C’est très bien, les États-Unis devraient montrer l’exemple en matière d’utilisation éthique de cette technologie. Le responsable de la politique en matière d’IA à l’Abundance Institute, Neil Chilson, a mis en garde contre le Federal Drive avec Tom Temin qu’avec les lois et réglementations fédérales et étatiques visant l’IA, l’ensemble de l’industrie pourrait se retrouver entravé.
Transcription de l’entretien :
Tom Temin Et brièvement, un mot ou deux sur l’Abundance Institute. Tout le monde aime l’abondance.
Neil Chilson Oui, nous le découvrons. Ce fut un excellent lancement ; nous avons lancé en avril. L’Abundance Institute est une nouvelle organisation à but non lucratif qui se concentre sur la création d’environnements culturels et politiques adaptés aux technologies émergentes. À l’heure actuelle, nous sommes très concentrés sur l’énergie et l’IA. Ce sont des domaines dans lesquels nous voyons d’énormes opportunités, mais aussi une énorme menace car ces environnements culturels et politiques ne nous permettront pas de maximiser la capacité de ces technologies à créer une prospérité humaine généralisée que nous pensons pouvoir.
Tom Temin Et de toute évidence, l’administration Biden a compris l’importance de l’intelligence artificielle, à la fois dans la manière dont elle affectera le gouvernement lui-même, mais également dans la manière dont elle affectera l’économie et pourrait affecter les gens de nombreuses manières, bonnes et mauvaises. Que pensez-vous de ces politiques ? Et bien sûr, nous verrons maintenant s’ils perdurent avec un changement d’administration à venir.
Neil Chilson Eh bien, je dois toujours commencer par dire que l’intelligence artificielle est presque aussi ancienne que l’histoire de l’informatique. Les gens essayent depuis longtemps de faire en sorte que les ordinateurs fassent des choses qui ressemblent à un travail intelligent, et ils ont réussi. Et chaque fois qu’ils réussissent, on ne parle plus d’IA. Nous appelons cela simplement des ordinateurs. Et donc cette dernière vague, qui a commencé, je pense, dans l’esprit du public et certainement dans l’esprit de Washington, à bien des égards, a été lancée par la publication du GPT-3. Et cela a déclenché toute une série d’activités. Et vous avez mentionné deux des plus importantes mesures prises par l’administration Biden au niveau du pouvoir exécutif, à savoir les décrets. L’un d’entre eux est un décret publié il y a environ un an. Et puis le plus récent est un mémorandum sur l’IA dans le contexte de la sécurité nationale. Et je trouve qu’il y a beaucoup de chevauchement entre eux. Mais je trouve qu’il existe également une différence très intéressante à bien des égards. Le décret, qui s’appuie sur d’autres documents internes ou sur des documents publiés par l’administration Biden, l’un d’eux étant une Déclaration des droits de l’IA, est très prudemment optimiste à l’égard de l’IA. Cela tend à mettre l’accent sur les risques et les préjudices. Et une grande partie du décret, qui est d’ailleurs le troisième plus long décret jamais publié, consiste en grande partie à donner des instructions à diverses agences fédérales et organismes fédéraux pour qu’ils appliquent leur autorité existante pour essayer de déterminer comment nous pouvons atténuer ces risques potentiels ; [it] se concentre beaucoup moins sur les opportunités. Le récent mémorandum sur la sécurité nationale, en revanche, commence très tôt en disant « il s’agit d’une technologie puissante sur laquelle les États-Unis doivent rester en tête ». Elle est plutôt optimiste quant au potentiel de cette technologie et à la nécessité pour les États-Unis de conserver leur leadership. Et ce changement de ton est assez intéressant, je pense, entre ceux-là. Je pense qu’il s’est passé beaucoup de choses au cours de l’année. Mais dans le fond, ils adoptent tous deux une approche descendante qui dit : trouvons les bonnes structures gouvernementales pour nous assurer que l’industrie fait les choses correctement.
Tom Temin Eh bien, pensez-vous que l’industrie elle-même est consciente des abus possibles liés à ces technologies, en particulier ? Je pense que les gens s’inquiètent de la génération délibérée d’hallucinations dans les deepfakes et ce genre de choses.
Neil Chilson Ouais, donc, pas d’une manière nouvelle. Cela est assez différent du développement des technologies Internet où les entreprises leaders dans ce domaine sont, à bien des égards, en quelque sorte trop prudentes, je pense, et très inquiètes. Et je pense que cela vient en grande partie des dirigeants. Ils procèdent donc soigneusement à la formation de ces très grands modèles et ont créé tout un écosystème de sécurité de l’IA qui se présente à bien des égards – avant qu’ils ne se transforment en entreprises géantes, je pense qu’OpenAI était en quelque sorte prudent, essayant d’avancer en toute sécurité. , et tout d’un coup, il s’est avéré que les gens aimaient vraiment utiliser ces technologies – je pense que cela a en quelque sorte changé leur orientation. Mais dans l’ensemble, je pense que les entreprises ont été assez prudentes et très conscientes du potentiel d’abus de cette technologie très puissante.
Tom Temin Nous parlons avec Neil Chilson. Il est responsable de la politique d’intelligence artificielle à l’Abundance Institute. Et nous devons mentionner que vous êtes un ancien technologue en chef à la Federal Trade Commission. Et dans un article que vous avez écrit récemment par l’intermédiaire de l’Institut, vous avez mentionné qu’il existe des centaines de lois et de réglementations potentielles au niveau non fédéral. Et il semble que beaucoup de choses ne soient pas harmonisées, ce que nous constatons dans de nombreux cas. Et vous craignez que l’IA elle-même soit tout simplement trop réduite avec toute cette panoplie ou cette mosaïque de contrôles potentiels qui pourraient être adoptés ?
Neil Chilson Ouais, c’est vrai. Je pense qu’il existe plus de 700 — cela dépend de la façon dont vous les suivez — 700 textes législatifs actifs aux niveaux étatique et fédéral. Évidemment, la plupart d’entre eux se situent au niveau des États. Et au niveau des États, ils tentent de résoudre de nombreux problèmes différents. Et donc cela crée vraiment un risque. Ces modèles sont en cours de déploiement. Ils peuvent être développés dans un État, mais ils sont déployés à l’échelle internationale. Il s’agit donc de trouver un moyen de se conformer non seulement à 50 juridictions différentes, mais à des centaines de juridictions différentes. L’une des premières réglementations post-ChatGPT a été adoptée par la ville de New York. Il y a donc même des villes qui participent à cette action. Et même lorsque ces projets de loi sont bien intentionnés et bien exécutés, le fait d’en avoir une grande variété rend la tâche très difficile, en particulier pour les petits acteurs du secteur, qui, étant donné le logiciel, sont nombreux à essayer de le faire. déployer cette technologie. Une certaine harmonisation au niveau fédéral semble donc tout à fait logique. L’une des choses, si je pouvais remonter le temps et contribuer à améliorer le décret, le décret initial, aurait été qu’il examine de manière plus globale la manière d’obtenir, à la fois pour dire que l’harmonisation est importante, mais ensuite aussi d’avoir adopté une stratégie, une stratégie réfléchie sur la façon de parvenir à cette harmonisation, compte tenu du système de lois fédéral que nous avons aux États-Unis.
Tom Temin Droite. Et bien sûr, au niveau des agences fédérales, toutes parlent de la nécessité d’utiliser l’IA d’une manière ou d’une autre. Et de plus en plus le style génératif de l’IA. Dans le même temps, le gouvernement doit impérativement recourir aux petites entreprises. Il semble donc que le gouvernement, au niveau des agences et des applications, pourrait presque être un modèle pour le déploiement approprié de ces technologies en raison des restrictions du secteur public qui accompagnent les applications déployées auprès du public.
Neil Chilson Oui, idéalement, ces technologies ont un énorme potentiel pour améliorer le fonctionnement des affaires gouvernementales. Et il pourrait vraiment y avoir un modèle ici. Et le processus de passation des marchés publics est compliqué. À bien des égards, les agences gouvernementales cherchent encore à faire du cloud computing ou à stocker leur contenu et leurs processus dans le cloud plutôt que sur des serveurs situés au sein de l’agence. Ils ont toujours raison. Et donc cette nouvelle technologie d’IA, un certain leadership de la Maison Blanche va être très important pour aider les agences à comprendre comment bien faire cela. Et le Congrès pourrait avoir besoin de rationaliser les marchés publics et d’autres types de réglementation qui rendent difficile l’adoption de nouveaux services d’une manière pour laquelle le gouvernement n’a tout simplement pas conclu de contrat auparavant dans le passé.
#Trop #réglementation #pourraitelle #tuer #lindustrie #même #gouvernement #était #censé #favoriser