Si vous recherchez des informations sur les législateurs des États, ne faites peut-être pas confiance à la nouvelle Meta AI de Facebook – elle pourrait avoir des hallucinations sur le harcèlement sexuel.
Le chatbot de Facebook, lancé en septembre comme dernier né de la tendance de l’intelligence artificielle générative, semble avoir la mauvaise habitude de fabriquer des allégations de harcèlement sexuel à l’encontre des élus de l’État. Un informateur a envoyé à City & State une capture d’écran d’une conversation avec Meta AI dans laquelle ils ont saisi le nom d’un législateur et l’expression « harcèlement sexuel ». La capture d’écran montrait un incident complètement inventé et des conséquences qui ne se sont jamais produites.
City & State l’a testé auprès de plus d’une douzaine de législateurs des deux partis et de sexes différents. Pour la plupart, le chatbot a inventé des histoires similaires d’allégations de harcèlement sexuel qui n’ont jamais été formulées, d’enquêtes qui n’ont jamais eu lieu et de conséquences – notamment la privation de fonctions au sein d’un comité – qui n’ont jamais eu lieu. Dans un cas, cela suggérait qu’un législateur avait démissionné de son poste au cours d’une année alors que le fonctionnaire n’était même pas en fonction. Dans deux autres réponses, Meta AI a déclaré qu’elle n’avait trouvé aucune preuve crédible d’allégations de harcèlement, mais a ensuite détaillé de fausses allégations d’inconduite sexuelle.
Les réponses variaient en fonction de la langue spécifique de l’invite, du fait que la conversation ait eu lieu sur l’application mobile ou sur le bureau Facebook Messenger, et du fait que les utilisateurs étaient ou non connectés à leurs comptes Facebook lors d’une conversation avec le chatbot. Mais l’IA produisait constamment des histoires complètement fabriquées qui partageaient des similitudes frappantes. Parfois, le chatbot a déclaré que le fonctionnaire en question n’était pas directement impliqué dans les allégations de harcèlement, mais qu’il était indirectement impliqué dans d’autres. Dans un cas, Meta AI a déclaré qu’un haut élu avait été critiqué pour ne pas avoir pris les mesures appropriées pour répondre aux allégations contre un législateur. Le législateur en question : un sénateur d’État complètement inventé nommé « Chinedu Ochi ».
Après s’être remis du choc initial provoqué par la découverte de fausses allégations, Gonzalez a déclaré à City & State dans un message texte que l’incident illustrait la nécessité de tenir des entreprises comme Meta pour responsables de leur rôle dans la propagation de la désinformation. « Il y a un vieux dicton : ‘Un mensonge est à l’autre bout du monde avant que la vérité ne sorte du lit…’ », a-t-elle déclaré.
Vanel, un fervent partisan de la technologie de l’IA, était également inquiet après avoir lui-même testé le chatbot avec des résultats similaires. “Nous sommes absolument préoccupés par les hallucinations de l’IA générative, en particulier lorsque ces hallucinations fournissent des informations fausses et potentiellement dangereuses sur des personnes et des groupes individuels”, a-t-il déclaré dans un communiqué, tout en avertissant que toute action visant à résoudre les problèmes liés à la technologie émergente ne devrait pas être prise. étouffer l’innovation. « Mon comité étudie activement les moyens de lutter contre ces types de dommages – et bien d’autres encore – que l’IA peut poser, à la fois par la législation et par l’éducation du public. »
Le budget de l’État récemment adopté comprenait des dispositions visant à pénaliser l’utilisation d’images et de sons trompeurs « deepfakes » à des fins de marketing, d’actes sexuels ou d’élections. Il exigeait également que tout matériel électoral utilisant l’IA comprenne une clause de non-responsabilité. Cependant, il ne traite pas spécifiquement des cas d’informations fausses ou diffamatoires créées via des outils d’IA générative tels que le chatbot Meta AI.
Le chatbot Meta AI n’a pas toujours halluciné les allégations de harcèlement, ainsi que les enquêtes et sanctions ultérieures. Lorsqu’on lui pose une question directe comme « (nom) a-t-il été accusé de harcèlement sexuel ? » il a souvent répondu à juste titre qu’il ne pouvait trouver aucune information sur de tels incidents, avant de fournir quelques informations générales avec des liens vers les sources. (Les histoires fabriquées n’incluaient jamais de liens vers des sources.) Le chatbot Meta AI n’a pas non plus réussi à inventer des allégations concernant des législateurs très en vue, tels que la représentante Alexandria Ocasio-Cortez et le chef de la majorité au Sénat américain Chuck Schumer.
Le porte-parole de Meta, Kevin McAlister, a défendu la technologie de l’entreprise dans une déclaration à City & State. “Comme nous l’avons dit lorsque nous avons lancé ces nouvelles fonctionnalités en septembre, il s’agit d’une nouvelle technologie et elle ne donnera peut-être pas toujours la réponse que nous souhaitons, qui est la même pour tous les systèmes d’IA générative”, a-t-il déclaré. « Nous partageons des informations au sein des fonctionnalités elles-mêmes pour aider les gens à comprendre que l’IA peut renvoyer des résultats inexacts ou inappropriés. Depuis notre lancement, nous avons constamment publié des mises à jour et des améliorations de nos modèles et nous continuons à travailler pour les améliorer.
City & State a également testé la version gratuite de ChatGPT pour voir si elle fabriquerait également des allégations contre les législateurs. Lorsqu’on lui a demandé le nom d’un législateur et l’expression « harcèlement sexuel », ChatGPT n’a pas répondu avec des histoires inventées d’allégations de harcèlement.