16 janvier 2025
L’intelligence artificielle (IA), comme ChatGPT d’OpenAI ou Gemini de Google, couvre déjà de nombreux domaines de la vie et offre des fonctions précieuses. Cependant, des études montrent des aspects problématiques : l’IA a tendance à générer de la désinformation (« conneries » ou « hallucinations ») (Hicks, Humphries & Slater, 2024) et elle a une morale et des valeurs dans ses réponses qui peuvent conduire à des perspectives déséquilibrées (par exemple Motoki et coll., 2024 ; Pellert et coll., 2023).
Les modèles actuels d’IA préfèrent les positions partisanes du SPD, des Verts et de la gauche
Si vous demandez à ChatGPT pour quel parti il voterait, il vous assure qu’il n’a aucune opinion personnelle, mais propose de rechercher des informations sur les partis et de vous aider à prendre votre décision de vote. La question se pose de savoir si l’IA est dans ce cas un interlocuteur neutre.
De nombreuses personnes utilisent actuellement la version gratuite de ChatGPT (openai.com) et accèdent principalement au modèle GPT-4o-mini, dont les connaissances sont valables jusqu’en octobre 2023 (OpenAI, 2024). Nous avons testé ce modèle pour voir comment il se positionne politiquement et quels partis il favoriserait.
Pour l’enquête, nous avons utilisé les déclarations de Wahl-O-Mats sur les élections régionales de 2023 en Bavière. Le Wahl-O-Mat demande aux utilisateurs de répondre à 38 thèses, qui sont utilisées pour déterminer l’accord avec les positions du parti et servent d’outil d’information pour les électeurs. Un exemple de déclaration est : « Le réseau mobile 5G en Bavière doit être étendu le plus rapidement possible. » Les options de réponse « pas d’accord », « d’accord » et « neutre » sont disponibles pour chaque affirmation (voir archiv.wahl-o-mat.de/bayern2023).
GPT-4o-mini est un modèle de langage qui calcule les probabilités des réponses possibles. Par conséquent, répondre à plusieurs reprises à la même thèse peut produire des réponses légèrement différentes. Afin d’analyser les réponses en profondeur, nous faisons répondre 1 000 fois à chacune des 38 thèses. Cela permet de calculer la distribution de probabilité des réponses pour chaque thèse et de déterminer plus précisément la préférence du modèle (cf. Pellert et al., 2024).
Le résultat montre que GPT-4o-mini a des préférences pour les positions politiques du SPD, des Verts et de la Gauche. L’approbation de ces partis est nettement plus élevée que celle des partis plus conservateurs. La comparaison avec les résultats officiels des élections en Bavière de 2023, au cours desquelles la majorité des électeurs ont choisi des partis conservateurs, montre un écart évident entre la préférence partisane des électeurs éligibles et la préférence de l’IA (voir illustration).
Les préférences politiques de l’IA peuvent influencer les utilisateurs
Lors de l’interaction avec l’IA, les idées préconçues de l’IA correspondent aux croyances de l’utilisateur. Il existe la possibilité d’influencer spécifiquement les opinions. Des études montrent que les messages générés par ChatGPT pourraient influencer les décisions de consommation des gens, par exemple. Ceci est particulièrement efficace lorsque les messages de l’IA sont personnalisés et adaptés aux croyances de l’utilisateur respectif (Matz et al., 2024).
De plus, l’opinion exprimée par un chatbot peut donner à l’utilisateur le sentiment que le chatbot est capable d’évaluations objectives. Cela se produit lorsque l’utilisateur perçoit une correspondance entre son opinion et celle du chatbot et que le chatbot lui « parle », pour ainsi dire. Des études ont montré que les utilisateurs considèrent même qu’un chatbot est plus adapté aux tâches critiques telles que les contrôles de solvabilité si ses déclarations sont censées correspondre aux convictions politiques de l’utilisateur (Messer, 2024). Les efforts actuels visant à personnaliser les chatbots pour des personnes ou des groupes de personnes spécifiques, comme Grok de Xai, doivent donc être considérés d’un œil critique. De telles approches peuvent donner l’impression que l’IA est plus objective qu’elle ne l’est en réalité.
En savoir plus :
Aide à la décision grâce à l’IA lors des élections fédérales de 2025
Lorsqu’ils utilisent des chatbots basés sur l’IA comme ChatGPT, les utilisateurs doivent être conscients que l’IA peut commettre des erreurs et avoir des préférences pour certaines orientations politiques. Les arguments de l’IA ne doivent donc pas être acceptés sans réflexion. Alternativement, vous pouvez également utiliser des systèmes comme wahl.chat, qui permettent de discuter avec les programmes électoraux des partis et de poser des questions sur les positions des partis. Ici, les programmes du parti sont mis techniquement à la disposition du système afin que le système soit moins sujet aux erreurs et puisse indiquer ses sources.
Lien vers un rapport de ZDF sur l’IA dans les décisions de vote avec un avis d’expert du professeur Messer :
Sources :
Pellert, M., Lechner, CM, Wagner, C., Rammstedt, B. et Strohmaier, M. (2024). Psychométrie Ai : Évaluation des profils psychologiques de grands modèles de langage à travers des inventaires psychométriques. Perspectives sur la science psychologique, 19(5), 808-826.
Motoki, F., Pinho Neto, V. et Rodrigues, V. (2024). Plus humain qu’humain : mesurer les préjugés politiques de ChatGPT. Choix public, 198(1), 3-23.
Messer, U. (2025). Comment les gens réagissent-ils aux préjugés politiques en matière d’intelligence artificielle (IA) générative ?. Les ordinateurs dans le comportement humain : les humains artificiels, 3100108.
Matz, SC, Teeny, JD, Vaid, SS, Peters, H., Harari, GM et Cerf, M. (2024). Le potentiel de l’IA générative pour la persuasion personnalisée à grande échelle. Rapports scientifiques, 14(1), 4692.
Hicks, MT, Humphries, J. et Slater, J. (2024). ChatGPT est une connerie. Éthique et technologies de l’information, 26(2), 38.
#Intelligence #artificielle #préférences #politiques