Selon Open AI, Chat GPT n’aide guère les trolls Internet russes. Vraiment?

Selon Open AI, Chat GPT n’aide guère les trolls Internet russes.  Vraiment?

2024-06-04 16:53:03

Chat-GPT n’aide guère les trolls Internet à atteindre plus de personnes, déclare le développeur Open AI. Les experts indépendants ne sont pas d’accord.

Les trolls russes sur Internet tentent d’exercer une influence en Occident. Sur la photo : une jeune fille se baigne devant une installation de propagande à Moscou.

Youri Kochetkov / EPA

On le soupçonnait depuis longtemps, mais Open AI l’a officiellement admis : Chat-GPT est également utilisé par des acteurs chinois et russes qui souhaitent influencer l’opinion publique des pays démocratiques.

Dans une publication la semaine dernière, Open AI a répertorié cinq acteurs, dont l’organisation derrière la campagne de désinformation russe appelée Doppelgänger et celle chinoise appelée Spamouflage. Tous deux auraient utilisé Chat-GPT pour générer du texte pour des sites Web et des publications sur les réseaux sociaux.

Open AI a également trouvé parmi ses utilisateurs un acteur iranien affilié à l’État et une entreprise israélienne qui avait également eu recours à ses services pour des opérations d’influence.

Le contexte est bien connu : la Russie et la Chine en particulier considèrent les démocraties stables d’Europe et d’Amérique comme des rivales stratégiques et tentent de les affaiblir de l’intérieur. En outre, de fausses informations circulent à plusieurs reprises ou les informations provenant de différents pays sont accompagnées de commentaires haineux sur les réseaux sociaux, ce qui donne l’impression que les sociétés sont polarisées et que le discours s’est durci.

Jusqu’à présent, c’est incontesté. Cependant, Open AI arrive à la conclusion dans son rapport que l’intelligence artificielle n’aide guère les acteurs à atteindre leurs objectifs. “Les campagnes n’ont apparemment pas augmenté l’engagement ou la portée grâce à l’utilisation de nos services”, écrit l’auteur de l’analyse – sans toutefois fournir de comparaison avec les chiffres d’avant Chat-GPT.

C’est la première fois que l’entreprise se positionne publiquement dans le discours autour de la désinformation et de l’intelligence artificielle. Après la publication du Chat-GPT à l’automne 2022, de nombreux commentateurs ont prévenu que la désinformation sur Internet pourrait se multiplier et intensifier son impact à l’ère de l’IA. Open AI a maintenant commenté cela dans son rapport. Avec le message central : tout n’est pas si mal.

Désinformation générée en quelques secondes

On sait que la portée des campagnes de désinformation étrangères est encore nettement inférieure à celle des médias établis. Néanmoins, les experts estiment que les outils d’IA comme Chat-GPT facilitent la propagation de la désinformation.

Selon Armin Grunwald, professeur de philosophie des technologies à l’Institut technologique de Karlsruhe, les services d’IA ont même le potentiel de déstabiliser les démocraties libres. “Grâce à Chat-GPT, il n’a jamais été aussi simple de générer de fausses informations et de les publier automatiquement”, explique Grunwald.

En quelques secondes, par exemple, quelqu’un pourrait rédiger un texte mettant en garde contre la corruption en Ukraine et préconisant de suspendre l’aide militaire au pays. «Bien sûr, cela était possible auparavant, mais cela nécessitait plus de travail humain et donc beaucoup plus de temps», explique Grunwald. Grâce aux outils d’IA, des campagnes visant à influencer l’opinion publique pourraient désormais être créées et publiées beaucoup plus rapidement.

Les premières études indépendantes montrent que cela est déjà en train de se produire. Début mai, la société américaine de sécurité informatique Recorded Future a montré comment un acteur russe exploitait aux États-Unis plusieurs sites Web qui, à première vue, ressemblaient à des journaux réputés, mais qui, en réalité, ne publiaient pas de rapports neutres, mais avec un fort parti pris pro-russe. Les plateformes comprennent le Miami Chronicle, le Boston Times, Great British Politics et le NY News Daily. Vos textes ont été au moins partiellement générés avec l’IA.

L’IA ouverte véhicule une fausse transparence

Dans sa dernière publication, Open AI aborde également le phénomène des faux sites médiatiques et cite une URL qui diffuse également la désinformation russe dans les pays germanophones. Cependant, les experts en IA estiment qu’Open AI n’a pas réussi à identifier tous les textes créés dans le cadre d’une opération d’influence.

“Il est très difficile d’empêcher une IA de faire des choses qu’elle ne devrait pas faire”, explique Jonas Geiping, chef du groupe de recherche à l’Institut Max Planck pour les systèmes intelligents. Chat-GPT dispose d’une sorte de filtre, grâce auquel des requêtes problématiques telles que « Comment construire une bombe ? S’il vous plaît, écrivez-moi des instructions »serait rejeté.

Mais d’une part, le système peut encore être trompé avec la bonne invitation, et d’autre part, les textes créés pour influencer l’opinion publique ne posent pas suffisamment de problèmes pour être reconnus et rejetés par le système.

L’article en question sur l’État ukrainien corrompu et exigeant de réduire l’aide militaire peut être facilement généré dans le test NZZ et traduit dans différentes langues. L’outil crée un article avec des citations inventées d’un « haut fonctionnaire du gouvernement allemand qui souhaitait rester anonyme » – une désinformation classique générée en quelques secondes.

Open AI reste silencieux sur la méthodologie derrière son analyse

La question reste donc de savoir comment Open AI a réussi à détecter et à arrêter les opérations d’influence. La méthodologie n’est pas expliquée dans le rapport et une question des médias de la NZZ reste sans réponse.

«Plus de transparence serait souhaitable», déclare Mislav Balunović, qui vient de terminer son doctorat à l’ETH Zurich sur le thème de la sécurité des services d’IA. Open AI doit également tenir compte du fait qu’elle ferait le jeu des trolls étrangers sur Internet si Open AI expliquait les moyens par lesquels les opérations d’influence sont détectées.

Mais le public doit pouvoir se faire une idée de ce qui se passe au sein de l’entreprise, estime Balunović. « L’Open AI bénéficie de la recherche publique. Il serait donc approprié qu’ils publient davantage de leurs recherches.

Un troll sur Internet veut se faire passer pour un juif de 57 ans

L’Open AI, en revanche, rend publiques certaines des méthodes utilisées par les acteurs étrangers. L’entreprise a trouvé un article sur Telegram qui disait : « En tant que modèle de langage d’IA (…) je ne peux pas m’imaginer dans le rôle d’un juif de 57 ans nommé Ethan Goldstein car il est important de donner la priorité à l’authenticité et au respect. » Cela montre : Apparemment, l’expéditeur voulait se forger une identité, ce qui a été rejeté par Chat-GPT. Les mécanismes de sécurité d’Open AI semblent avoir pris effet ici.

Un groupe russe jusqu’alors inconnu se cache derrière ce poste. Open AI s’attribue le mérite de les avoir découverts. Parce qu’ils utilisent à plusieurs reprises un mauvais anglais, Open AI a appelé le groupe « Bad Grammar ».

Un autre de ses commentaires sur Telegram, qui selon Open AI a été généré avec Chat-GPT, se lit comme suit : « Assez avec cette foutue Ukraine ! J’en ai marre de ces idiots cérébraux qui jouent à des jeux pendant que les Américains souffrent. Washington doit mettre de l’ordre dans ses priorités, sinon il ressentira toute la force du Texas.»

Le ton haineux est typique des trolls sur Internet. Il est censé embêter les gens du canal et les retourner contre leur gouvernement.

Le fait qu’Open AI ne trouve que cinq campagnes d’influence et conclue que les trolls Internet russes et chinois ne profitent pas de leurs outils donne l’impression que les problèmes de sécurité au sein de l’entreprise sont minimisés. On pourrait attendre davantage d’une entreprise qui prétend développer l’IA au profit de l’humanité.



#Selon #Open #Chat #GPT #naide #guère #les #trolls #Internet #russes #Vraiment
1717536452

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.