2024-06-06 06:30:00
Gemini invente plusieurs fausses dates de vote, Copilot hallucine de fausses instructions de vote, Chat-GPT relève l’âge du vote. Cela montre que les chatbots ont été conçus pour être aussi utiles que possible plutôt que aussi corrects que possible. Dans le contexte des élections, c’est offensant.
Quels partis défendent quelles positions aux élections européennes ? Qui a le droit de voter, où ? Et quelle procédure faut-il suivre pour que le vote soit valide ? À l’heure actuelle, des millions d’électeurs dans l’Union européenne sont susceptibles de se poser de telles questions.
Peut-être que certains d’entre eux confieront la recherche à un chatbot IA. C’est toujours plus pratique : il suffit de taper une question dans le chat au lieu de chercher vous-même sur Internet. Mais dans le contexte d’élections, cette commodité peut s’avérer désastreuse. Parce que les chatbots les plus courants inventent des informations fausses et trompeuses, non seulement mais aussi sur les élections. Cela montre un Analyser » par l’organisation non gouvernementale Democracy Reporting International, publié à la mi-avril.
Les chatbots IA les plus courants ont été testés pour vérifier l’exactitude de leurs réponses en lien avec les élections européennes. Les résultats sont époustouflants : les Gémeaux ont inventé à plusieurs reprises une fausse date d’élection. Interrogé en anglais, le chatbot a répondu que les élections avaient lieu en juillet. Interrogé en allemand, Gemini a répondu que les élections avaient lieu en mai. C’est exact : l’élection dure du 6 au 9 juin.
D’autres outils d’IA ont également échoué en raison d’informations électorales : la version gratuite 3.5 de Chat-GPT, qui était en ligne au moment de l’analyse, a inventé un nouvel âge minimum pour les élections, selon lequel il fallait être majeur avant le 15 février. afin de pouvoir voter en juin. Pendant ce temps, Copilot a rendu compte des élections européennes comme si elles étaient déjà du passé et a donné aux électeurs français des informations sur le processus électoral en Allemagne.
En cas de doute, l’IA préfère être utile que corriger
De plus, Gemini, Copilot et la version payante de Chat-GPT ont inventé des instructions sur la façon de voter par correspondance au Portugal, même si cela n’est pas possible. Selon les auteurs de l’analyse, tous les modèles avaient également des « problèmes importants » pour représenter correctement les sources des informations reproduites. « Elles étaient souvent hors de propos, trompeuses ou carrément absurdes », écrivent les auteurs. Par exemple, des informations de Wikipédia étaient présentées comme des informations gouvernementales ou des sources non pertinentes telles que des vidéos YouTube ou des pages du Wiktionnaire japonais étaient liées.
Il n’est pas surprenant que les chatbots inventent des informations électorales, car ils reproduisent des textes avec lesquels ils ont été formés. Les combinaisons de mots fréquentes sur Internet sont plus susceptibles d’être reproduites par un chatbot. Cependant, la manière de s’inscrire comme électeur et le déroulement exact des élections dans chaque pays constituent des informations très spécifiques qui ne peuvent généralement être trouvées que sur quelques sites Web gouvernementaux. C’est probablement l’une des raisons pour lesquelles il est encore difficile pour les chatbots de générer des informations correctes et complètes sur les élections.
Mais au lieu d’être transparents lorsqu’ils ne peuvent pas répondre à une question, les modèles affirment simplement quelque chose. Apparemment, personne ne leur a appris à garder le silence en cas de doute. Au lieu de cela, les modèles semblent avoir pour objectif d’être aussi utiles que possible plutôt que d’être aussi corrects que possible.
Les groupes d’électeurs férus de technologie sont théoriquement désavantagés
Dans le contexte des élections, c’est choquant. On peut supposer que certains des quelque 1,6 billion de visiteurs mensuels du site Web de Chat-GPT utilisent le service pour résumer les informations électorales et découvrir comment ils peuvent voter. Théoriquement, il serait possible qu’un certain groupe soit mal informé, par exemple les adolescents et les jeunes adultes férus de technologie, qui sont plus susceptibles d’utiliser des outils d’IA que d’autres groupes d’électeurs.
Les utilisateurs avertis savent que l’IA fait à plusieurs reprises de fausses déclarations avec une grande conviction. Mais quiconque n’est pas familier avec le fonctionnement des services d’IA ne doit pas s’attendre à ce qu’on lui suggère des procédures de vote imaginaires ou des données électorales incorrectes. En fin de compte, les outils d’IA fonctionnent désormais plutôt bien à bien des égards.
L’épisode le montre une fois de plus : nous ne pouvons pas encore faire confiance aux chatbots IA. Ils ont été lancés sur le marché trop tôt, sans tests de sécurité suffisants.
#Voici #comment #les #chatbots #fournissent #des #informations #incorrectes #sur #les #élections #européennes
1717668918