2023-10-25 21:00:17
Sur Internet, il faut faire preuve de prudence et douter, pratiquement, de toute publication qui tente de susciter les sentiments des utilisateurs. Plus encore, si possible, lorsque la vidéo, l’image ou le tweet font référence à un conflit armé comme l’invasion de l’Ukraine ou la guerre israélienne à Gaza. A tout moment, l’un de ces contenus peut consister en un « deepfake », un montage réalisé avec l’intelligence artificielle (IA), où la fiction imite la réalité avec un degré de détail presque parfait et avec une infime marge d’erreur à l’œil nu. pas formés pour les différencier.
Dans ceux-ci, un faux « visage » construit par l’intelligence artificielle est moulé, qui est fusionné avec une vidéo authentique, afin de recréer un événement qui n’a jamais vraiment eu lieu. Bien que faux, ils peuvent paraître convaincants et sont souvent produits pour imiter ou se moquer d’une personne. Ou du moins, telles étaient ses intentions au début.
Depuis quelque temps déjà, les « deepfakes » sont utilisés comme armes pour influencer l’opinion publique lors de grandes guerres. Le conflit russo-ukrainien a été le premier exemple réel d’utilisation de « deepfakes », selon les chercheurs d’une étude réalisée par l’University College Cork (UCC). Dans l’ouvrage publié aujourd’hui dans la revue PLOS UN, a examiné des tweets de 2022 sur l’invasion, dans ce qui constitue la première analyse de l’utilisation des « deepfakes » dans la désinformation et la propagande de guerre. « Une grande partie des recherches précédentes sur les deepfakes se sont concentrées sur les dommages potentiels futurs de la technologie. Cependant, nous nous sommes concentrés sur la façon dont ces vidéos et images truquées affectent déjà les réseaux sociaux, comme nous l’avons vu lors de l’invasion russe de l’Ukraine”, détaillent-ils dans l’enquête.
La « reddition » de Zelensky ou la « paix » de Poutine
L’étude a analysé près de 5 000 tweets sur X (anciennement Twitter) au cours des sept premiers mois de 2022 pour explorer la façon dont les gens réagissent aux contenus « deepfakes » en ligne et découvrir des preuves des dommages qu’ils causent à la confiance. Ils ont découvert de grands débats, presque des « batailles rangées » sur Internet, en réagissant aux montages. D’un côté, certains ont exprimé leur inquiétude, leur choc ou leur confusion face à la nouvelle. D’autres, en revanche, ont réagi positivement aux montages, notamment à l’encontre de ceux qu’ils considéraient comme leurs « rivaux politiques ».
L’un des cas les plus notoires est celui du « deepfake » qui présentait faussement le président ukrainien Volodymyr Zelensky se rendant à la Russie. Une vidéo publiée dans le média « Ukraine 24 », après avoir subi une attaque de cybercriminels, qui ont profité de l’occasion pour poster le message. La même chose s’est produite avec Vladimir Poutine quelques mois plus tard, dans une vidéo diffusée sur plusieurs réseaux russes après un piratage, dans laquelle le président proclamait la paix et un cessez-le-feu avec l’Ukraine.
Par principe, je ne publie jamais ni ne crée de liens vers des contenus faux ou faux. Mais @MikaelThalen a utilement frappé une étiquette sur celui de Zelensky, alors voilà.
J’ai vu des deepfakes bien faits. Toutefois, cette situation doit être classée parmi les pires de tous les temps.pic.twitter.com/6OTjGxT28a
– Shayan Sardarizadeh (@Shayan86) 16 mars 2022
“Il n’y a aucune preuve que les gouvernements eux-mêmes – ukrainien ou russe – ont créé les ‘deepfakes’, mais il est clair que derrière eux se cachent des motivations politiques pour influencer le développement du conflit”, explique John Twomey, chercheur principal de l’étude. , pour ABC. . La preuve en est le « Fantôme de Kiev », qui est le plus grand « deepfake » de propagande réalisé pendant le conflit et qui a été créé au début de celui-ci.
Lorsque les premiers bombardements russes ont commencé, un utilisateur de Twitter a raconté qu’un pilote ukrainien défendait le pays comme un loup solitaire, attaquant et abattant seul plus de six chasseurs russes. Toute l’histoire, à l’exception des images supposées du « Fantôme de Kiev », était fausse. Des scènes de jeux vidéo et des images truquées d’autres soldats ukrainiens ont été utilisées pour recréer un faux héros de guerre.
La photo montre un pilote de MiG-29. Le même “Fantôme de Kiev”.
Il provoque la terreur chez les ennemis et la fierté chez les Ukrainiens ????????
Il compte 6 victoires sur les pilotes russes !
Avec des défenseurs aussi puissants, l’Ukraine va certainement gagner ! pic.twitter.com/GJLpcJ31Si
– Petro Porochenko (@poroshenko) 25 février 2022
Un coup de pouce pour les théories du complot
En outre, l’étude a révélé que les « deepfakes » contribuent à engendrer et à cultiver des théories du complot et un scepticisme malsain. “Les utilisateurs remettent en question toute publicité politique, et lorsqu’ils voient un geste ou un mouvement étrange, ils pensent qu’il s’agit d’une double ou directement d’une fausse vidéo, et que les gouvernements, par exemple, cachent la maladie ou la mort de leurs dirigeants politiques”, détaille Deux mey. .
Il évoque le cas d’une vidéo de Poutine où sa main semblait passer à travers un microphone, alors qu’en réalité il s’agissait d’une erreur due à la qualité de la vidéo, que l’on appelle un « artefact ». “Il y avait des gens sur Internet qui affirmaient qu’il s’agissait d’un ‘deepfake’ et que Poutine cachait une maladie. Bien sûr, la vidéo était réelle et la main n’a rien traversé.
L’affirmation selon laquelle le président russe Vladimir Poutine s’est exprimé aujourd’hui devant un écran vert est fausse.
Une vidéo de faible qualité montrant la main de Poutine semblant bouger dans un microphone semble être un artefact de compression.
La vidéo de haute qualité du même clip ne montre aucun problème de ce type. pic.twitter.com/rchVWo18xj
– Mikael Thalen (@MikaelThalen) 5 mars 2022
De même, ils ont observé comment les utilisateurs accusaient à tort une vidéo de Biden d’être un « deepfake », où il était vu avec un regard apparemment étrange. “Ils ont fait remarquer que le président avait un étrange look de vallée, comme s’il était un robot”, explique Twomey.
Mon œil peut détecter instantanément l’étrange vallée. Il s’agit d’une technologie 100 % deepfake. Ils ont collé le visage de Biden sur un acteur. Je parierais ma carrière là-dessus. https://t.co/QtkAnBdM1g
– Georges Alexopoulos (@GPrime85) 27 juillet 2022
Combattez les canulars de l’IA
Les conséquences de cette interférence avec la vérité sont claires pour les chercheurs : les utilisateurs se méfient des publications du réseau, se radicalisent d’un côté ou de l’autre et doutent de la véracité des médias. “Il arrive un moment où ils doutent complètement de toute image du conflit”, expliquent-ils dans l’ouvrage. «Les chercheurs et les journalistes craignent depuis longtemps que les deepfakes puissent saper la vérité, propager la désinformation et saper la confiance dans la véracité des médias d’information. Son plus grand danger est la capacité de modifier ce que nous savons être vrai alors que de fausses vidéos sont considérées comme authentiques et vice versa », explique le Dr Conor Linehan, de l’École de psychologie appliquée de l’UCC.
Par conséquent, ils soulignent que les canulars liés à l’IA doivent être combattus en informant les gens sur ce que sont les « deepfakes », quel est leur potentiel, quelles sont leurs capacités actuelles et comment ils évolueront dans les années à venir.
#Les #deepfakes #sont #déjà #des #armes #temps #guerre
1698331074