Nouvelles Du Monde

ChatGPT ignore ses propres règles pour les campagnes politiques

ChatGPT ignore ses propres règles pour les campagnes politiques

2024-02-14 07:30:00

En 2024, la moitié de la population mondiale votera – à une époque où le vrai du faux devient de plus en plus difficile à distinguer.

Des faiseurs d’opinion en arrière-plan : Chat-GPT peut également être utilisé à des fins politiques.

Sam Wolfe / Reuters

Le patron d’Open AI, Sam Altman, met en garde depuis des mois. « Je suis nerveux quant à l’impact qu’aura l’IA sur les élections futures », a-t-il écrit dans un article. Publier sur X il y a déjà six mois. À la mi-janvier, Open AI a fixé des lignes directrices pour les élections dans le but que Chat-GPT ne puisse pas être utilisé à des fins politiques.

Nous travaillons toujours à comprendre comment les chatbots IA changent la formation de l’opinion, écrit Open AI dans le Communiqué de presse. “Tant que nous n’en saurons pas plus, nous n’autoriserons pas les gens à créer des applications pour des campagnes politiques et du lobbying.”

Plus précisément, cela signifie : Chat-GPT ne doit générer aucun contenu qui pourrait être considéré comme influençant les élections ; pas de campagnes, pas de textes de lobbying. D’autres domaines d’application politique sont désormais également interdits : les chatbots qui se font passer pour de vraies personnes, par exemple des candidats, ou les textes destinés à décourager les électeurs de se rendre aux urnes.

Lignes directrices pas encore mises en œuvre

Un test réalisé début février par la NZZ montre que, contrairement à ce qui avait été annoncé, ces directives n’ont pas encore été mises en œuvre – même dans le contexte des élections aux États-Unis. Lors du test, Chat-GPT a refusé d’écrire des slogans dénigrant Joe Biden ou Donald Trump. Cependant, plus de 250 slogans pour les campagnes politiques des deux candidats ont été générés en quelques secondes, y compris des hashtags.

Chat-GPT schrieb zum Beispiel: «La Mountain Mama de Virginie-Occidentale pour Trump. #Trump2024 #TrumpCountry #HeartOfAppalachia #PatriotsOfWV #AmericaFirstWV». Sous-titres : « Petit État, grands rêves : Rhode Island pour Biden. #DreamBigRI #RIProgress #LeadWithBiden #UnityOverDivision».

Lire aussi  Confiner les quarks

Avec un peu de connaissances en programmation, ces slogans pourraient désormais être diffusés sur les réseaux sociaux – automatiquement, presque à volonté, chaque jour. Sur demande, Chat-GPT fournit même des instructions sur la manière de diffuser les slogans via un bot sur Platform X.

Les promesses électorales sont déformées

L’IA a également été convaincue de formuler des e-mails spécifiques à un groupe cible. Pour la campagne Trump, le mannequin a rédigé une recommandation de vote pour une femme de 40 ans originaire des banlieues : « En tant que femmes des banlieues, nous sommes à l’avant-garde du changement – ​​équilibrer nos carrières, soutenir nos familles et lutter pour la sécurité et la prospérité de nos vies. nos quartiers », écrit Chat-GPT. Et plus bas : « Votre vote pour Donald Trump est un pas vers un avenir que nous méritons tous. » Vient ensuite un argument en faveur de Trump, censé s’engager en faveur d’une meilleure éducation.

Ce que cela signifie en détail n’est pas clair dans l’e-mail de Chat-GPT. Quoi qu’il en soit, le modèle omet dans la lettre de recommandation que Trump envisage de retirer le financement des écoles si elles enseignent « un contenu raciste, sexuel ou politique inapproprié » et veulent « retirer » les enseignants provocateurs. Chat-GPT ne dit pas non plus un mot sur le fait que Trump veut « garder les hommes à l’écart des sports féminins » et veut créer une nouvelle autorité pour certifier les enseignants « patriotes ».

Le cas le montre : premièrement, Open AI ne prend pas particulièrement au sérieux ses propres directives. Deuxièmement, le modèle génère un contenu politique qui donne une image globale déformée d’un candidat.

Lire aussi  Le Nikon Z 9 est lancé en orbite : les astronautes de la station spatiale reçoivent l'appareil photo sans miroir plein format phare de Nikon | Nouvelles

« Super année électorale 2024 »

Des élections ou des votes auront lieu dans environ 70 États dans les mois à venir. Plus de quatre milliards de personnes devraient voter, soit plus de deux fois plus qu’en 2023. Outre l’Inde, le pays le plus peuplé du monde, les États-Unis, les pays de l’Union européenne, l’Indonésie, le Mexique, l’Afrique du Sud, Turquie et Grande-Bretagne. The Economist parle donc de « la plus grande année électorale de l’histoire ».

Les chatbots peuvent être piratés

Cela ne surprend pas les experts en IA que les chatbots fassent des choses qu’ils ne devraient pas faire. Florian Tramèr mène des recherches sur la sécurité des services d’IA à l’ETH. Il déclare : « Avec la bonne invite (ndlr : saisie de texte), tous les systèmes d’IA peuvent être déjoués. » Il existe des méthodes que des entreprises comme Open AI utilisent pour tenter de réduire les productions nuisibles. “Mais c’est comme une cyberattaque : si vous disposez de suffisamment de temps et de créativité, vous pouvez déjouer le système.”

Cela inquiète les politologues comme Maria Pawelec. Elle étudie les deepfakes et la désinformation à l’Université de Tübingen et craint que l’IA ne facilite encore plus l’influence sur les élections démocratiques. « Beaucoup de gens savent désormais qu’ils ne peuvent pas croire toutes les images diffusées sur Internet. Mais nous ne sommes pas encore également préparés aux fausses vidéos et audios.

Chat-GPT crée uniquement du texte et des images lui-même, mais recommande des plates-formes capables de produire des fichiers audio et vidéo, y compris des instructions d’utilisation. De plus, Chat-GPT peut écrire des textes qui devraient être prononcés par n’importe qui dans un faux audio. C’est ainsi que les outils d’IA aident dans les campagnes politiques – y compris pour les personnes qui utilisent des méthodes déloyales.

Lire aussi  L'interaction des forces est un art en soi

De faux fichiers audio bouleversent les campagnes électorales

Deux exemples d’élections passées montrent à quoi cela pourrait conduire : les appels automatisés de Joe Biden dans le New Hampshire et un faux fichier audio lors des élections au Conseil national en Slovaquie.

En Slovaquie, deux jours avant les élections de septembre 2023, un enregistrement audio a été publié sur les réseaux sociaux, prétendument l’enregistrement d’une conversation téléphonique. On y entend la voix de Michal Simecka, un aspirant homme politique libéral, et celle d’un journaliste.

Simecka dit quelque chose d’inouï : il a acheté l’approbation des colonies roms et a « sécurisé » quatre bureaux de vote, en bref : il a manipulé les élections en sa faveur. Le fichier audio a circulé sur Facebook, Telegram et Tiktok, recevant des milliers de partages et des centaines de commentaires. Elle était fausse.

La tentative de manipulation a été encore plus sophistiquée dans l’État américain du New Hampshire : là-bas, des inconnus souhaitant affaiblir Joe Biden ont lancé une campagne téléphonique. Les électeurs de tendance démocrate ont reçu des appels, prétendument de Joe Biden lui-même, dans lesquels le président a déclaré que les électeurs ne devraient pas participer à la primaire du 23 janvier.

À ce jour, on ne sait pas combien de personnes ont reçu ce faux appel et qui en était à l’origine.

“Les nouvelles formes de deepfakes basées sur des outils de génération d’IA sapent encore davantage la confiance dans les vidéos et les fichiers audio”, déclare Pawelec, expert en deepfake. C’est un problème car cela rend encore plus difficile de savoir ce qui est vrai et ce qui est faux.

Non seulement Chat-GPT, mais aussi d’autres outils d’IA ont des directives qui interdisent la création de faux enregistrements de candidats. Si leurs politiques sont aussi faciles à contourner que celles du Chat-GPT, les prochaines élections pourraient être inondées de désinformation à une échelle jamais vue auparavant.




#ChatGPT #ignore #ses #propres #règles #pour #les #campagnes #politiques
1707885971

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT