Internet regorge de porno « deepfake » de Taylor Swift et montre le danger de l’IA pour les femmes | Technologie

Internet regorge de porno « deepfake » de Taylor Swift et montre le danger de l’IA pour les femmes |  Technologie

2024-01-26 13:06:38

Les réseaux se sont remplis d’images sexuellement explicites de l’une des personnes les plus influentes du moment : la chanteuse américaine Taylor Swift. Encore une fois, comme c’est souvent le cas ces derniers temps, il ne s’agissait pas de vraies photos, mais de nus créés avec l’intelligence artificielle (IA), contrefaçons profondes pour ne pas. L’une des publications les plus marquantes du réseau social X a accumulé plus de 35 millions de vues, 24 000 forwards et des centaines de milliers de J’aimeavant que la plateforme n’intervienne pour suspendre le compte de l’utilisateur — vérifié — qui a partagé les images, pour violation des politiques de réseau. Mais il circule depuis près d’une journée, suffisamment de temps pour relancer l’alerte sur le danger de la prolifération de fausses pornographies générées par l’IA qui s’attaquent aux femmes. Et à propos du défi que représente l’arrêt de sa propagation : Swift étudierait l’opportunité de poursuivre en justice le site Web qui a publié les images en premier, selon le Courrier quotidien.

Bloquer le compte original de X n’a ​​pas non plus suffi à régler le problème, car d’autres ont continué à diffuser les images ; dont certains restent encore actifs. Le terme « Taylor Swift AI » est devenu une tendance dans certaines régions, à tel point que même X est devenu un souvenir, grâce à un poster depuis votre compte officiel, sa politique de « tolérance zéro » envers ce type de contenu. « Nos équipes suppriment activement toutes les images identifiées et prennent les mesures appropriées contre les comptes responsables de leur publication. Nous surveillons de près la situation pour garantir que toute nouvelle violation soit immédiatement corrigée et que le contenu soit supprimé. “Nous nous engageons à maintenir un environnement sûr et respectueux pour tous les utilisateurs”, indique le message.

Ce n’est pas la première fois que cela arrive, tant à des célébrités qu’à des femmes anonymes. Il y a quelques mois, à Almendralejo, un groupe de mineurs a été victime d’images manipulées avec une application d’intelligence artificielle, un cas qui a eu des répercussions en Espagne et a suscité l’intérêt du public pour les problèmes que peut poser cette technologie. C’est également arrivé à Rosalía, qui a dénoncé la publication de faux profond —une vidéo ou une image statique où le visage de l’image originale est remplacé par celui de toute autre personne— du chanteur JC Reyes. Au Mexique, la diffusion de centaines de milliers d’images d’étudiants a provoqué une protestation massive à l’Institut National Polytechnique.

Dans le cas de Taylor Swift, numérique 404 Médias suggère que les images peuvent provenir d’un groupe sur Telegram, où les utilisateurs partagent des images explicites de femmes générées par l’IA via un générateur Microsoft gratuit. Le premier à avoir répandu le contrefaçons profondes fr X est un utilisateur qui se cache derrière le compte @Zvbear, qui a dû rendre privé son compte avec plus de 83 000 abonnés après le rapides — comme on appelle les partisans du chanteur — ont porté plainte contre lui.

Les fans du chanteur pop ont durement critiqué Selon certains médias américains, l’homme derrière @Zvbear est un citoyen somalien de 27 ans résidant au Canada, connu pour publier des contenus risqués sur des plateformes telles que 4chan, X et Reddit. Ces images ont également été diffusées sur un site Internet expressément dédié à la diffusion de nus de femmes célèbres, dans certains cas des images explicites de films auxquels elles ont participé, mais leur volume continue de croître. contrefaçons profondes du porno qui a déjà touché des célébrités telles que Meghan Markle, Megan Fox et Kate Upton.

Le phénomène de pornisation des femmes grâce à l’intelligence artificielle a explosé ces derniers mois, mais les hommes ne s’en inquiètent pas, selon une étude récente sur l’état du faux profond fabriqué aux États-Unis. 48 % des hommes interrogés ont reconnu avoir vu au moins une fois de la fausse pornographie. Parmi eux, 74 % déclarent ne pas se sentir coupables d’en consommer, ce qui laisse penser que le contenu faux profond C’est devenu une pratique acceptée et normalisée des préférences en matière de divertissement pour adultes. De plus, 20 % des participants à l’enquête avaient envisagé la possibilité d’apprendre à créer de la pornographie avec l’intelligence artificielle pour l’utiliser avec des femmes célèbres ou leur entourage.

Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.




#Internet #regorge #porno #deepfake #Taylor #Swift #montre #danger #lIA #pour #les #femmes #Technologie
1706277546

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.