2024-12-27 07:30:00
Au début de la super année électorale 2024, les politologues ont averti que les deepfakes mettaient en danger les élections démocratiques. Il s’avère maintenant que les craintes étaient exagérées ; la technologie a fonctionné différemment que prévu.
Les nouvelles technologies ont toujours suscité la peur. Après l’invention de l’imprimerie, l’élite dirigeante de l’Église s’est inquiétée du fait que la presse écrite diffusait trop de fausses nouvelles. Lorsqu’il a été inventé, le téléphone était censé agir comme un bug déguisé : les hommes politiques qui achetaient cet appareil devaient craindre d’être écoutés à tout moment.
On a dit plus tard à propos de la radio qu’elle distrayait tellement les enfants de leurs devoirs qu’ils ne pouvaient pas être formés pour devenir des citoyens responsables. Et on disait que la télévision cuisait le cerveau. Cela signifie que des décisions électorales sensées ne sont plus possibles.
Pas de nouvelle technologie sans la disparition de la démocratie, semble-t-il. L’invention qui menacerait aujourd’hui la démocratie est l’intelligence artificielle. Son influence sur la politique a été évoquée partout au début de la super année électorale 2024 : elle fausserait les élections démocratiques, notamment avec des deepfakes, c’est-à-dire des données photo, vidéo ou audio générées par ordinateur qui créeraient des scandales sur les bons candidats et les rendraient ainsi inéligibles.
Est-ce vraiment un homme politique qui achète des votes ?
La peur des deepfakes s’est accrue en raison d’un incident survenu en Slovaquie. En septembre 2023, les électeurs ont élu un nouveau parlement. Peu avant les élections, un deepfake est apparu sur les réseaux sociaux : un fichier audio, prétendument un enregistrement d’une conversation téléphonique entre Michal Simecka, le leader du parti libéral Slovaquie progressiste (PS), et un journaliste. Les voix ont été générées artificiellement. Ils ont déclaré que le PS avait « sécurisé quatre bureaux de vote » et acheté des voix dans les colonies roms.
Le dossier a été publié deux jours avant les élections, à une époque où les hommes politiques sont traditionnellement silencieux et où les médias ne rendent plus compte de l’élection. L’audio suggérait que l’un des hommes politiques les plus puissants du pays était corrompu et manipulait les élections. Le deepfake a pu dans un premier temps se propager sans entrave sur les réseaux sociaux. Des milliers d’électeurs ont vu et partagé le dossier devant le service fact-checking de l’agence de presse AFP Faux exposé.
De nombreux observateurs politiques pensaient que le scénario allait désormais se répéter lors de nombreuses élections : peu avant les élections, des candidats modérés ont été discrédités par des deepfakes – jusqu’à ce qu’on ne sache plus ce qui est vrai et ce qui ne l’est pas.
“Armageddon” n’a pas eu lieu
Après l’incident en Slovaquie dit Hillary Clinton sur la sécurité des élections démocratiques : “Quiconque ne s’inquiète pas n’y prête pas attention.” Et la lauréate du prix Nobel de la paix et journaliste Maria Ressa rayon À propos de l’année des super élections, il a même parlé d’« Armageddon » et a fait de 2024 l’année où la démocratie « vit ou meurt ».
La super année électorale est désormais presque terminée ; des dizaines d’élections démocratiques ont eu lieu dans différentes régions du monde. Les partis populistes se sont renforcés dans de nombreux endroits, mais nulle part, comme on le craignait au début de l’année, peu avant les élections, du matériel vidéo ou audio compromettant n’est apparu qui aurait soutenu les candidats établis dans une profonde crise de confiance.
Même en Slovaquie, qui a été citée dans divers médias comme exemple de la manière dont les deepfakes sont nocifs pour la démocratie, la falsification de la voix de Simecka a été reconnue en quelques heures. Dans l’ensemble, le parti populiste et favorable à la Russie Smer a remporté le plus de voix, mais le parti de Simecka est arrivé deuxième et a obtenu de meilleurs résultats le jour du scrutin que lors des derniers sondages électoraux.
Presque aucun effet des deepfakes aux États-Unis
Même aux États-Unis, où les élections sont probablement les plus surveillées au monde, rien ne prouve que les deepfakes aient eu une influence significative sur les élections. De fausses vidéos sur divers candidats y ont également circulé. Kamala Harris a notamment été accusée d’avoir tiré sur un rhinocéros protégé et d’avoir renversé un adolescent. Cependant, les deux vidéos ont été rapidement révélées comme étant des contrefaçons et, selon une enquête de Microsoft, n’ont pas atteint un large public.
Pour l’une des vidéos, rien n’indiquait qu’elle avait été créée ou éditée à l’aide d’un outil d’IA. Cela montre que le danger des deepfakes générés par l’IA pendant la campagne électorale a été surestimé. Si vous voulez tromper, vous n’avez pas besoin d’IA, il suffit d’une caméra vidéo et d’un acteur sans vergogne.
De plus, la grande majorité des deepfakes politiques ont été créés dans un but totalement inoffensif : le divertissement. On se souvient des séquences vidéo dans lesquelles Harris et Trump deviennent amants et ont un bébé ensemble. Ou la vidéo du Premier ministre indien Narendra Modi dansant sur scène comme s’il n’y avait pas de lendemain.
Mdr! Trump et Harris tombent amoureux et ont un bébé, selon ce clip généré par l’IA. Vraiment hors de contrôle ! pic.twitter.com/Yk4tizglcR
–Simon Ateba (@simonateba) 18 août 2024
Je publie cette vidéo parce que je sais que « LE DICTATEUR » ne me fera pas arrêter pour ça. pic.twitter.com/8HY32d4R2y
– Krishna (@Atheist_Krishna) 6 mai 2024
Les faux frauduleux pourraient faciliter le contact avec les électeurs
En Inde en particulier, les hommes politiques ont spécifiquement utilisé des médias synthétiques, comme on peut aussi appeler les deepfakes, dans leurs campagnes électorales. Ils ont créé des avatars d’eux-mêmes et ont créé des milliers de messages vidéo individualisés. Dans les clips, les hommes politiques s’adressaient aux électeurs par leur prénom, énuméraient les avantages gouvernementaux dont ils bénéficiaient et, à la fin, leur demandaient de voter. Et pas seulement dans une langue, mais dans des dizaines, selon la langue maternelle du destinataire.
Un nouveau terme a été créé pour désigner ces vidéos avec des avatars : les soft fakes. Elles ne sont pas faites pour nuire à un candidat mais pour le rendre populaire. La technologie offre ainsi une nouvelle façon de s’adresser personnellement aux électeurs, ce qui aurait pu mobiliser un ou deux électeurs indiens qui autrement seraient restés chez eux pour se rendre au bureau de vote. Quoi qu’il en soit, le taux de participation électorale en Inde a été supérieur à la moyenne des vingt dernières années.
Des politiciens d’autres pays asiatiques ont également utilisé des avatars générés par l’IA et des contrefaçons. Le président sud-coréen Yoon Suk Yeol, qui a inopinément déclaré la loi martiale début décembre et qui a depuis été démis du pouvoir par le Parlement, s’est fait créer pendant la campagne électorale un avatar IA de lui-même, qui répondait quotidiennement aux questions de l’électorat. Au début, l’avatar parlait principalement de politique, mais bientôt aussi de questions personnelles et mentionnait ses préférences lorsqu’il chantait au karaoké. L’avatar donnait au candidat de plus de 60 ans un aspect jeune et branché.
De telles contrefaçons peuvent désormais être condamnées comme étant manipulatrices, car elles présentent les candidats comme s’ils pouvaient parler des dizaines de langues qu’ils ne parlent pas en réalité. On pourrait dire qu’ils prétendaient être de faux faits lorsque les politiciens utilisaient leurs avatars pour prétendre qu’ils étaient plus jeunes et plus amicaux qu’ils ne l’étaient en réalité.
Ou vous pouvez voir le côté positif : si les politiciens peuvent mieux comprendre les questions, les problèmes et les préoccupations des citoyens grâce à des avatars disponibles 24 heures sur 24, les soft fakes pourraient également profiter à la démocratie. Si le faux aide l’homme politique à être facilement accessible, il devient idéalement un instrument supplémentaire de participation démocratique.
Les nus profonds sont un problème pour les femmes politiques
Ce sont ceux qui les utilisent qui décident si les médias synthétiques sont utilisés à l’avantage ou au désavantage de la démocratie. Il serait logique d’utiliser la technologie à bon escient et de suivre les mauvaises choses qui en découlent.
Par exemple, les criminels qui ont créé de la fausse pornographie de politiciens britanniques locaux et ont téléchargé les clips sur Internet. Ils ont porté atteinte non seulement aux femmes concernées, mais aussi au système démocratique. En fin de compte, les femmes de la région qui s’intéressent à la politique réfléchiront désormais à deux fois avant de savoir si elles veulent vraiment se lancer en politique.
Des soi-disant nus profonds de Kamala Harris ont également circulé pendant la campagne électorale. Ils sont aussi le résultat d’un crime. Cependant, blâmer la technologie elle-même pour ces cas ne suffit pas. Après tout, il s’agissait ici de criminels qui abusaient sciemment de la technologie et de l’anonymat d’Internet.
La frontière entre réel et artificiel s’estompe
Néanmoins, il est encore trop tôt pour considérer le phénomène des deepfakes comme inoffensif pour la démocratie. Comme c’est souvent le cas pour les nouvelles technologies, leur fonctionnement à long terme ne devient que peu à peu clair.
Dans un monde où les deepfakes se perfectionnent de plus en plus, les électeurs doivent être capables d’accepter le fait qu’ils ne peuvent plus toujours distinguer clairement ce qui est réel de ce qui est généré par ordinateur sur les réseaux sociaux. Le sentiment fondamental que vous ne pouvez pas croire tout ce que vous lisez, entendez ou voyez pourrait avoir un impact fondamental sur la confiance dans l’information. Nous savons grâce à la recherche ce qui se passe alors : vous croyez avant tout aux informations qui correspondent à votre propre vision du monde.
Les politiciens peuvent l’utiliser pour jeter le doute sur des faits réels ou pour proclamer leurs mensonges déguisés en « faits alternatifs », et bénéficier d’un concept que la science politique appelle le « dividende du menteur » : si vous ne savez pas ce qui est vrai et ce qui est faux, vous Les fausses affirmations peuvent-elles bénéficier ou nier des événements réels.
Cependant, le développement qui rend de plus en plus difficile la distinction entre le vrai et le faux est bien plus ancien que toutes les applications deepfake. Il serait dangereux de présenter la technologie deepfake comme un bouc émissaire du développement. Car cela revient à ne pas se poser des questions importantes : pourquoi l’élite politique traditionnelle se distancie-t-elle de la population ? Que doivent faire les hommes politiques lorsqu’ils ne peuvent plus argumenter contre leurs opposants populistes ?
De telles questions sont particulièrement inconfortables pour l’élite politique. Il est beaucoup plus facile de pointer du doigt les entreprises technologiques. Si nous voulons adapter la démocratie à l’ère de l’IA, cela est contre-productif. Parce que nous passons à côté des opportunités qu’offrent les médias synthétiques pour moderniser la démocratie.
#Comment #les #deepfakes #pourraient #même #profiter #démocratie
1735332431