Opinion : Comment éviter les tentatives de manipulation des élections par l’IA

Opinion : Comment éviter les tentatives de manipulation des élections par l’IA

Les gros titres de ce cycle électoral ont été dominés par des événements sans précédent, parmi lesquels la condamnation pénale de Donald Trump, l’attentat contre lui, la performance désastreuse de Joe Biden lors du débat et son remplacement sur le ticket démocrate par la vice-présidente Kamala Harris. Il n’est pas étonnant que d’autres événements politiques importants aient été éclipsés, notamment les tentatives incessantes d’influence des électeurs par l’intelligence artificielle.

Lors des primaires présidentielles, un faux appel automatisé de Biden a exhorté les électeurs du New Hampshire à attendre jusqu’en novembre pour voter. En juillet, Elon Musk a partagé une vidéo qui comprenait une voix imitant Kamala Harris Elle a dit des choses qu’elle n’avait pas dites. Initialement qualifiée de parodie, la vidéo s’est rapidement transformée en une publication non étiquetée sur X avec plus de 130 millions de vues, soulignant le défi auquel sont confrontés les électeurs.

Plus récemment, Trump a instrumentalisé les inquiétudes concernant l’IA en faisant faussement référence à affirmant qu’une photo d’un rassemblement de Harris a été générée par l’IAsuggérant que la foule n’était pas réelle. Et une photo deepfake de la tentative d’assassinat de l’ancien président modifié les visages des agents des services secrets ils semblent donc sourire, promouvant ainsi la fausse théorie selon laquelle la fusillade était une mise en scène.

De toute évidence, lorsqu’il s’agit de manipulation de l’IA, les électeurs doivent être prêts à tout.

Les électeurs ne se trouveraient pas dans cette situation difficile si les candidats avaient des politiques claires sur l’utilisation de l’IA dans leurs campagnes. Des directives écrites sur le moment et la manière dont les campagnes prévoient d’utiliser l’IA permettraient aux gens de comparer l’utilisation de la technologie par les candidats à leurs politiques déclarées. Cela aiderait les électeurs à évaluer si les candidats mettent en pratique ce qu’ils prêchent. Si un politicien fait pression pour que l’IA soit tatouée afin que les gens puissent identifier quand elle est utilisée, par exemple, il devrait utiliser cet étiquetage sur sa propre IA dans les publicités et autres supports de campagne.

Lire aussi  Note! Voici la prévision de prix pour le téléphone portable OPPO Reno 8 T en Indonésie

Les déclarations politiques fondées sur l’IA peuvent également aider les citoyens à se protéger des acteurs malveillants qui tentent de manipuler leurs votes. Et l’absence de moyens fiables pour évaluer l’utilisation de l’IA compromet la valeur que cette technologie pourrait apporter aux élections si elle était déployée correctement, équitablement et en toute transparence.

Ce n’est pas comme si les politiciens n’utilisaient pas l’IA. En effet, des entreprises comme Google et Microsoft ont reconnu qu’elles ont formé des dizaines de campagnes et les groupes politiques sur l’utilisation d’outils d’IA générative.

Les grandes entreprises technologiques ont publié un ensemble de principes Les États-Unis ont promis plus tôt cette année de guider l’utilisation de l’IA dans les élections. Ils ont également promis de développer une technologie permettant de détecter et d’étiqueter les contenus réalistes créés avec l’IA générative et d’éduquer le public sur son utilisation. Cependant, ces engagements manquent de moyens de mise en œuvre.

Lire aussi  Poursuite intentée contre la fonte des câbles GeForce RTX 4090 de Nvidia • The Register

Les régulateurs gouvernementaux ont répondu aux inquiétudes concernant l’effet de l’IA sur les élections. En février, à la suite de l’appel automatisé du New Hampshire, La Commission fédérale des communications a déménagé pour rendre de telles tactiques illégales. Le consultant qui a orchestré l’appel a été condamné à une amende de 6 millions de dollarset la société de télécommunications qui a passé les appels a été condamnée à une amende de 2 millions de dollars. Mais même si la FCC veut exiger que l’utilisation de l’IA dans les publicités diffusées soit divulguée, le président de la Commission électorale fédérale a annoncé le mois dernier que l’agence était mettre fin à sa réflexion sur la réglementation de l’IA dans les publicités politiquesLes responsables de la FEC ont déclaré que cela outrepasserait leur autorité et qu’ils attendraient les directives du Congrès sur la question.

La Californie et d’autres États exigent des clauses de non-responsabilité lorsque la technologie est utilisée, mais seulement lorsqu’il y a une tentative de malveillance. Les États du Michigan et de Washington exigent la divulgation de toute utilisation de l’IA. Le Minnesota, la Géorgie, le Texas et l’Indiana ont quant à eux interdit l’utilisation de l’IA dans les publicités politiques.

Il est probablement trop tard dans ce cycle électoral pour s’attendre à ce que les campagnes commencent à divulguer leurs pratiques en matière d’IA. Il incombe donc aux électeurs de rester vigilants à l’égard de l’IA, de la même manière que d’autres technologies, comme les caisses automatiques dans les supermarchés et autres magasins, ont transféré la responsabilité aux consommateurs.

Lire aussi  Green Business : la marque de chaussures écologiques Birkenstock est en forte hausse

Les électeurs ne peuvent pas compter sur les informations électorales qui leur parviennent par courrier, par messagerie électronique ou sur les réseaux sociaux pour être à l’abri des manipulations technologiques. Ils doivent prendre note de ceux qui ont financé la distribution de ces documents et rechercher des signes évidents d’utilisation de l’IA dans les images, comme des doigts manquants ou des boucles d’oreilles dépareillées. Les électeurs doivent connaître la source des informations qu’ils consomment, la manière dont elles ont été vérifiées et la manière dont elles sont partagées. Tout cela contribuera à une meilleure maîtrise de l’information, qui, avec la pensée critique, est une compétence dont les électeurs auront besoin pour remplir leur bulletin de vote cet automne.

Ann G. Skeet est le directeur principal de l’éthique du leadership et John P. Pelissero est le directeur de l’éthique gouvernementale au Centre Markkula pour l’éthique appliquée de l’Université de Santa Clara. Ils sont parmi les co-auteurs de «Voter pour l’éthique : un guide pour les électeurs américains”, dont certaines parties de cette pièce ont été adaptées.

2024-09-06 13:00:47
1725718424


#Opinion #Comment #éviter #les #tentatives #manipulation #des #élections #par #lIA

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.