Nouvelles Du Monde

Les « deepfakes » sont déjà des armes en temps de guerre

Les « deepfakes » sont déjà des armes en temps de guerre

2023-10-25 21:00:17

Sur Internet, il faut faire preuve de prudence et douter, pratiquement, de toute publication qui tente de susciter les sentiments des utilisateurs. Plus encore, si possible, lorsque la vidéo, l’image ou le tweet font référence à un conflit armé comme l’invasion de l’Ukraine ou la guerre israélienne à Gaza. A tout moment, l’un de ces contenus peut consister en un « deepfake », un montage réalisé avec l’intelligence artificielle (IA), où la fiction imite la réalité avec un degré de détail presque parfait et avec une infime marge d’erreur à l’œil nu. pas formés pour les différencier.

Dans ceux-ci, un faux « visage » construit par l’intelligence artificielle est moulé, qui est fusionné avec une vidéo authentique, afin de recréer un événement qui n’a jamais vraiment eu lieu. Bien que faux, ils peuvent paraître convaincants et sont souvent produits pour imiter ou se moquer d’une personne. Ou du moins, telles étaient ses intentions au début.

Depuis quelque temps déjà, les « deepfakes » sont utilisés comme armes pour influencer l’opinion publique lors de grandes guerres. Le conflit russo-ukrainien a été le premier exemple réel d’utilisation de « deepfakes », selon les chercheurs d’une étude réalisée par l’University College Cork (UCC). Dans l’ouvrage publié aujourd’hui dans la revue PLOS UN, a examiné des tweets de 2022 sur l’invasion, dans ce qui constitue la première analyse de l’utilisation des « deepfakes » dans la désinformation et la propagande de guerre. « Une grande partie des recherches précédentes sur les deepfakes se sont concentrées sur les dommages potentiels futurs de la technologie. Cependant, nous nous sommes concentrés sur la façon dont ces vidéos et images truquées affectent déjà les réseaux sociaux, comme nous l’avons vu lors de l’invasion russe de l’Ukraine”, détaillent-ils dans l’enquête.

La « reddition » de Zelensky ou la « paix » de Poutine

L’étude a analysé près de 5 000 tweets sur X (anciennement Twitter) au cours des sept premiers mois de 2022 pour explorer la façon dont les gens réagissent aux contenus « deepfakes » en ligne et découvrir des preuves des dommages qu’ils causent à la confiance. Ils ont découvert de grands débats, presque des « batailles rangées » sur Internet, en réagissant aux montages. D’un côté, certains ont exprimé leur inquiétude, leur choc ou leur confusion face à la nouvelle. D’autres, en revanche, ont réagi positivement aux montages, notamment à l’encontre de ceux qu’ils considéraient comme leurs « rivaux politiques ».

Lire aussi  Apple prévoit un outil de complétion de code basé sur l'IA - rapport

L’un des cas les plus notoires est celui du « deepfake » qui présentait faussement le président ukrainien Volodymyr Zelensky se rendant à la Russie. Une vidéo publiée dans le média « Ukraine 24 », après avoir subi une attaque de cybercriminels, qui ont profité de l’occasion pour poster le message. La même chose s’est produite avec Vladimir Poutine quelques mois plus tard, dans une vidéo diffusée sur plusieurs réseaux russes après un piratage, dans laquelle le président proclamait la paix et un cessez-le-feu avec l’Ukraine.

“Il n’y a aucune preuve que les gouvernements eux-mêmes – ukrainien ou russe – ont créé les ‘deepfakes’, mais il est clair que derrière eux se cachent des motivations politiques pour influencer le développement du conflit”, explique John Twomey, chercheur principal de l’étude. , pour ABC. . La preuve en est le « Fantôme de Kiev », qui est le plus grand « deepfake » de propagande réalisé pendant le conflit et qui a été créé au début de celui-ci.

Lire aussi  La haine sur Internet frappe particulièrement les femmes dirigeantes

Lorsque les premiers bombardements russes ont commencé, un utilisateur de Twitter a raconté qu’un pilote ukrainien défendait le pays comme un loup solitaire, attaquant et abattant seul plus de six chasseurs russes. Toute l’histoire, à l’exception des images supposées du « Fantôme de Kiev », était fausse. Des scènes de jeux vidéo et des images truquées d’autres soldats ukrainiens ont été utilisées pour recréer un faux héros de guerre.

Un coup de pouce pour les théories du complot

En outre, l’étude a révélé que les « deepfakes » contribuent à engendrer et à cultiver des théories du complot et un scepticisme malsain. “Les utilisateurs remettent en question toute publicité politique, et lorsqu’ils voient un geste ou un mouvement étrange, ils pensent qu’il s’agit d’une double ou directement d’une fausse vidéo, et que les gouvernements, par exemple, cachent la maladie ou la mort de leurs dirigeants politiques”, détaille Deux mey. .

Il évoque le cas d’une vidéo de Poutine où sa main semblait passer à travers un microphone, alors qu’en réalité il s’agissait d’une erreur due à la qualité de la vidéo, que l’on appelle un « artefact ». “Il y avait des gens sur Internet qui affirmaient qu’il s’agissait d’un ‘deepfake’ et que Poutine cachait une maladie. Bien sûr, la vidéo était réelle et la main n’a rien traversé.

De même, ils ont observé comment les utilisateurs accusaient à tort une vidéo de Biden d’être un « deepfake », où il était vu avec un regard apparemment étrange. “Ils ont fait remarquer que le président avait un étrange look de vallée, comme s’il était un robot”, explique Twomey.

Combattez les canulars de l’IA

Les conséquences de cette interférence avec la vérité sont claires pour les chercheurs : les utilisateurs se méfient des publications du réseau, se radicalisent d’un côté ou de l’autre et doutent de la véracité des médias. “Il arrive un moment où ils doutent complètement de toute image du conflit”, expliquent-ils dans l’ouvrage. «Les chercheurs et les journalistes craignent depuis longtemps que les deepfakes puissent saper la vérité, propager la désinformation et saper la confiance dans la véracité des médias d’information. Son plus grand danger est la capacité de modifier ce que nous savons être vrai alors que de fausses vidéos sont considérées comme authentiques et vice versa », explique le Dr Conor Linehan, de l’École de psychologie appliquée de l’UCC.

Lire aussi  Feuille de route 2024 du salon itinérant Lunettes Party

Par conséquent, ils soulignent que les canulars liés à l’IA doivent être combattus en informant les gens sur ce que sont les « deepfakes », quel est leur potentiel, quelles sont leurs capacités actuelles et comment ils évolueront dans les années à venir.




#Les #deepfakes #sont #déjà #des #armes #temps #guerre
1698331074

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT