Home » Divertissement » Meta ne limitant pas la propagation de nombreuses images de célébrités de Deepfake sexualisées sur Facebook

Meta ne limitant pas la propagation de nombreuses images de célébrités de Deepfake sexualisées sur Facebook

by Nouvelles

Meta a supprimé plus d’une douzaine d’images frauduleuses et sexualisées d’acteurs et d’athlètes célèbres après qu’une enquête CBS News a trouvé une prévalence élevée d’images Deepfake gérées par l’IA sur la plate-forme Facebook de l’entreprise.

Des dizaines de fausses images hautement sexualisées des acteurs Miranda Cosgrove, Jeanette McCurdy, Ariana Grande, Scarlett Johansson et l’ancienne star du tennis Maria Sharapova ont été largement partagées par plusieurs comptes Facebook, recueillant des centaines de milliers de likes et de reoles sur la plate-forme.

“Nous avons supprimé ces images pour avoir violé nos politiques et continuerons de surveiller les autres messages de violation. Il s’agit d’un défi à l’échelle de l’industrie, et nous travaillons continuellement pour améliorer notre technologie de détection et d’application”, a déclaré Erin Logan à CBS News, la porte-parole de Meta, Erin Logan, a déclaré à CBS News CBS Dans une déclaration envoyée par courriel vendredi.

Une analyse de plus d’une douzaine de ces images de Reality Defender, une plate-forme qui travaille pour détecter les médias générés par l’AI, a montré que de nombreuses photos étaient des images profondes – avec des corps vêtus de sous-vêtements AI-Générés remplaçant les corps des célébrités autrement dans autrement dans AIM de vraies photographies. Quelques-unes des images ont probablement été créées à l’aide d’outils de couture d’image qui n’impliquent pas l’IA, selon l’analyse de Reality Defender.

“Presque toutes les pornographies Deepfake n’ont pas le consentement du sujet en faillite”, a déclaré dimanche Ben Colman, co-fondateur et PDG de Reality Defender. “Un tel contenu se développe à un rythme vertigineux, d’autant plus que les mesures existantes pour arrêter ce contenu sont rarement implémentées.”

CBS News a demandé des commentaires à Miranda Cosgrove, Jeanette McCurdy, Ariana Grande et Maria Sharapova sur cette histoire. Johansson a refusé d’émettre un commentaire, selon un représentant de l’acteur.

L’expert montre comment repérer unfake Deep créé avec AI 02:39

Dans le cadre de la politique d’intimidation et de harcèlement de Meta, la société interdit les “photoshop ou dessins sexualisés désobligeants” sur ses plateformes. La société interdit également la nudité des adultes, l’activité sexuelle et l’exploitation sexuelle des adultes, et ses réglementations visent à empêcher les utilisateurs de partager ou de menacer de partager des images intimes non consensuelles. Meta a également déployé l’utilisation des étiquettes “Info” pour marquer clairement le contenu qui est manipulé.

Mais les questions restent sur l’efficacité de la police de la société technologique sur un tel contenu. CBS News a trouvé des dizaines d’images générées par AI-Generated et sexualisées de Cosgrave et McCurdy toujours accessibles au public sur Facebook, même après le partage généralisé de ce contenu, en violation des termes de l’entreprise, a été signalé à Meta.

Une telle image profonde de Cosgrave qui était encore en place au cours du week-end avait été partagée par un compte avec 2,8 millions de followers.

Les deux acteurs – les deux anciens stars de Child sur le Nickelodeon montrent Icarly, qui appartient à la société mère de CBS News, Paramount Global – est le plus prolifique pour le contenu DeepFake, sur la base des images des personnages publics que CBS News a analysés.

Le conseil de surveillance de Meta, un organisme quasi indépendant qui se compose d’experts dans le domaine des droits de l’homme et de la liberté d’expression, et fait des recommandations pour la modération du contenu sur les plateformes de Meta, a déclaré à CBS New sont insuffisants.

Le conseil de surveillance a cité les recommandations qu’elle a faites à Meta au cours de la dernière année, notamment en exhortant l’entreprise à rendre ses règles plus claires en mettant à jour son interdiction de “Photoshop sexualisé dérogatoire” à inclure spécifiquement le mot “non consensuel” et à englober une autre manipulation photo Techniques telles que l’IA.

Le conseil d’administration a également recommandé que la méta-perforation de son interdiction de «photoshop sexualisé désobligeant» dans les réglementations d’exploitation sexuelle des adultes de l’entreprise, de sorte que la modération d’un tel contenu serait plus rigoureusement appliquée.

Interrogé lundi par CBS News sur les recommandations du conseil d’administration, Meta a souligné le Lignes directrices sur son site Web de transparencequi montrent que l’entreprise a jusqu’à présent rejeté les suggestions, bien que Meta ait noté dans sa déclaration qu’il envisageait toujours des moyens de signaler un manque de consentement dans les images générées par l’IA. Meta a également déclaré qu’elle envisageait des réformes de ses politiques d’exploitation sexuelle pour adultes, de “capturer l’esprit” des recommandations du conseil d’administration.

“Le conseil de surveillance a clairement indiqué que les images intimes profondes non consensuelles constituent une grave violation de la vie privée et de la dignité personnelle, nuisant de manière disproportionnée aux femmes et aux filles. Conséquences, “Michael McConnell, coprésident du conseil d’assistance, a déclaré vendredi à CBS News.

“Le conseil d’administration surveille activement la réponse de Meta et continuera de faire pression pour des garanties plus fortes, une application plus rapide et une plus grande responsabilité”, a déclaré McConnell.

Meta n’est pas la seule entreprise de médias sociaux à faire face à la question du contenu DeepFake répandu et sexualisé.

“La publication d’images de nudité non consensuelle (NCN) est strictement interdite sur X et nous avons une politique de tolérance zéro envers un tel contenu”, a déclaré l’équipe de sécurité de la plate-forme dans un post à l’époque.

Une étude publiée plus tôt ce mois-ci par le gouvernement britannique a révélé que le nombre d’images DeepFake sur les plateformes de médias sociaux se développait à un rythme rapide, le gouvernement prévoyant que 8 millions de fans profonds seraient partagés cette année, contre 500 000 en 2023.

Plus de CBS News

Emmet Lyons

Emmet-lyons.jpg

#Meta #limitant #pas #propagation #nombreuses #images #célébrités #Deepfake #sexualisées #sur #Facebook

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.