Le commerce illégal d’images d’abus sexuels d’enfants par l’IA dévoilé

Le commerce illégal d’images d’abus sexuels d’enfants par l’IA dévoilé
  • Par Angus Crawford et Tony Smith
  • nouvelles de la BBC

Les pédophiles utilisent la technologie de l’intelligence artificielle (IA) pour créer et vendre du matériel d’abus sexuel d’enfants réaliste, a découvert la BBC.

Certains accèdent aux images en payant des abonnements à des comptes sur des sites de partage de contenu grand public tels que Patreon.

Patreon a déclaré avoir une politique de “tolérance zéro” concernant ces images sur son site.

Le Conseil des chefs de la police nationale a déclaré qu’il était “scandaleux” que certaines plateformes réalisent “d’énormes bénéfices” mais n’assument pas de “responsabilité morale”.

Et le GCHQ, l’agence gouvernementale de renseignement, de sécurité et de cybersécurité, a répondu au rapport en disant : “Les auteurs d’abus sexuels sur des enfants adoptent toutes les technologies et certains pensent que l’avenir du matériel d’abus sexuels sur des enfants réside dans le contenu généré par l’IA”.

Les créateurs des images d’abus utilisent un logiciel d’IA appelé Stable Diffusion, qui était destiné à générer des images à utiliser dans l’art ou la conception graphique.

L’IA permet aux ordinateurs d’effectuer des tâches qui nécessitent généralement l’intelligence humaine.

Le logiciel Stable Diffusion permet aux utilisateurs de décrire, à l’aide d’invites de mots, n’importe quelle image de leur choix – et le programme crée ensuite l’image.

Mais la BBC a découvert qu’il était utilisé pour créer des images réalistes d’abus sexuels sur des enfants, y compris du viol de bébés et de tout-petits.

Les équipes d’enquête en ligne de la police britannique sur la maltraitance des enfants disent qu’elles sont déjà confrontées à ce type de contenu.

Légende,

La journaliste Octavia Sheepshanks dit qu’il y a eu un “énorme flot” d’images générées par l’IA

La chercheuse et journaliste indépendante Octavia Sheepshanks enquête sur cette question depuis plusieurs mois. Elle a contacté la BBC via l’association caritative pour enfants NSPCC afin de mettre en évidence ses découvertes.

“Depuis que les images générées par l’IA sont devenues possibles, il y a eu cette énorme inondation… ce ne sont pas seulement les très jeunes filles, elles sont [paedophiles] parler des tout-petits », a-t-elle déclaré.

Une « pseudo image » générée par un ordinateur qui représente des abus sexuels sur des enfants est traitée de la même manière qu’une image réelle et il est illégal de la posséder, de la publier ou de la transférer au Royaume-Uni.

Le responsable de la protection des enfants du Conseil national des chefs de police (NPCC), Ian Critchley, a déclaré qu’il serait faux de prétendre que parce qu’aucun vrai enfant n’était représenté dans de telles images “synthétiques”, personne n’a été blessé.

Il a averti qu’un pédophile pouvait “passer de cette échelle d’infractions de la pensée au synthétique, en passant par l’abus d’un enfant vivant”.

Les images d’abus sont partagées via un processus en trois étapes :

  • Les pédophiles créent des images à l’aide d’un logiciel d’IA
  • Ils font la promotion d’images sur des plateformes telles que le site Web japonais de partage d’images appelé Pixiv
  • Ces comptes ont des liens pour diriger les clients vers leurs images plus explicites, que les gens peuvent payer pour voir sur des comptes sur des sites tels que Patreon

Certains des créateurs d’images publient sur une plate-forme de médias sociaux japonaise populaire appelée Pixiv, qui est principalement utilisée par les artistes partageant des mangas et des anime.

Mais parce que le site est hébergé au Japon, où le partage de dessins animés et de dessins d’enfants sexualisés n’est pas illégal, les créateurs l’utilisent pour promouvoir leur travail en groupe et via des hashtags – qui indexent les sujets à l’aide de mots clés.

Un porte-parole de Pixiv a déclaré qu’il accordait une grande importance à la résolution de ce problème. Il a déclaré le 31 mai qu’il avait interdit toutes les représentations photoréalistes de contenu sexuel impliquant des mineurs.

La société a déclaré avoir renforcé de manière proactive ses systèmes de surveillance et allouer des ressources substantielles pour contrer les problèmes liés aux développements de l’IA.

Mme Sheepshanks a déclaré à la BBC que ses recherches suggéraient que les utilisateurs semblaient créer des images de maltraitance d’enfants à l’échelle industrielle.

“Le volume est juste énorme, donc les gens [creators] dira “nous visons à faire au moins 1 000 images par mois””, a-t-elle déclaré.

Les commentaires des utilisateurs sur des images individuelles dans Pixiv montrent clairement qu’ils ont un intérêt sexuel pour les enfants, certains utilisateurs proposant même de fournir des images et des vidéos d’abus qui n’ont pas été générées par l’IA.

Mme Sheepshanks a surveillé certains des groupes sur la plate-forme.

“Au sein de ces groupes, qui compteront 100 membres, les gens partageront : “Oh, voici un lien vers des choses réelles””, dit-elle.

“Les trucs les plus horribles, je ne connaissais même pas les mots [the descriptions] comme ça existait.”

De nombreux comptes sur Pixiv incluent des liens dans leurs biographies dirigeant les gens vers ce qu’ils appellent leur “contenu non censuré” sur le site américain de partage de contenu Patreon.

Patreon est évalué à environ 4 milliards de dollars (3,1 milliards de livres sterling) et prétend avoir plus de 250 000 créateurs – la plupart d’entre eux étant des comptes légitimes appartenant à des célébrités, des journalistes et des écrivains bien connus.

Les fans peuvent soutenir les créateurs en souscrivant des abonnements mensuels pour accéder aux blogs, podcasts, vidéos et images – en payant aussi peu que 3,85 $ (3 £) par mois.

Mais notre enquête a révélé que des comptes Patreon proposaient à la vente des images obscènes photoréalistes d’enfants générées par l’IA, avec différents niveaux de prix en fonction du type de matériel demandé.

L’un d’eux a écrit sur son compte : “J’entraîne mes filles sur mon PC”, ajoutant qu’elles font preuve de “soumission”. Pour 8,30 $ (6,50 £) par mois, un autre utilisateur a proposé “des œuvres d’art non censurées exclusives”.

La BBC a envoyé à Patreon un exemple, que la plate-forme a confirmé comme étant “semi-réaliste et violant nos politiques”. Il a déclaré que le compte avait été immédiatement supprimé.

Patreon a déclaré avoir une politique de “tolérance zéro”, insistant sur le fait que “les créateurs ne peuvent pas financer de contenu dédié à des thèmes sexuels impliquant des mineurs”.

La société a déclaré que l’augmentation du contenu nuisible généré par l’IA sur Internet était “réelle et pénible”, ajoutant qu’elle avait “identifié et supprimé des quantités croissantes” de ce matériel.

“Nous interdisons déjà le matériel synthétique d’exploitation des enfants généré par l’IA”, a-t-il déclaré, se décrivant comme “très proactif”, avec des équipes, des technologies et des partenariats dédiés pour “assurer la sécurité des adolescents”.

Légende,

Ian Critchley du NPCC a déclaré que c’était un “moment charnière” pour la société

Le générateur d’images AI Stable Diffusion a été créé dans le cadre d’une collaboration mondiale entre des universitaires et un certain nombre d’entreprises, dirigée par la société britannique Stability AI.

Plusieurs versions ont été publiées, avec des restrictions écrites dans le code qui contrôlent le type de contenu pouvant être créé.

Mais l’année dernière, une version antérieure “open source” a été rendue publique, permettant aux utilisateurs de supprimer tous les filtres et de l’entraîner à produire n’importe quelle image, y compris les images illégales.

Stability AI a déclaré à la BBC qu’elle “interdit toute utilisation abusive à des fins illégales ou immorales sur nos plateformes, et nos politiques indiquent clairement que cela inclut le CSAM (matériel d’abus sexuel d’enfants).

“Nous soutenons fermement les efforts des forces de l’ordre contre ceux qui utilisent nos produits à des fins illégales ou néfastes”.

Alors que l’IA continue de se développer rapidement, des questions ont été soulevées sur les risques futurs qu’elle pourrait poser pour la vie privée des personnes, leurs droits humains ou leur sécurité.

Jo [full name withheld for security reasons]responsable de la mission de lutte contre les abus sexuels envers les enfants (CCSA) du GCHQ, a déclaré à la BBC : “Le GCHQ soutient les forces de l’ordre pour garder une longueur d’avance sur les menaces émergentes telles que le contenu généré par l’IA et s’assurer qu’il n’y a pas d’espace sûr pour les délinquants”.

Ian Critchley du NPCC a également déclaré qu’il craignait que le flot d’images réalistes d’IA ou “synthétiques” ne ralentisse le processus d’identification des vraies victimes d’abus.

Il explique: “Cela crée une demande supplémentaire, en termes de police et d’application de la loi, pour identifier où un enfant réel, où qu’il se trouve dans le monde, est maltraité par opposition à un enfant artificiel ou synthétique.”

M. Critchley a déclaré qu’il pensait que c’était un moment charnière pour la société.

“Nous pouvons faire en sorte qu’Internet et la technologie permettent les opportunités fantastiques qu’ils créent pour les jeunes – ou cela peut devenir un endroit beaucoup plus nocif”, a-t-il déclaré.

L’association caritative pour enfants, la NSPCC, a appelé mercredi les entreprises technologiques à en tenir compte.

“La rapidité avec laquelle ces technologies émergentes ont été cooptées par les abuseurs est époustouflante mais pas surprenante, car les entreprises qui ont été averties des dangers sont restées les bras croisés tout en prononçant des platitudes creuses sur la sécurité”, a déclaré Anna Edmundson, responsable de l’organisme de bienfaisance. chef de la politique et des affaires publiques.

“Les entreprises technologiques savent désormais comment leurs produits sont utilisés pour faciliter les abus sexuels sur les enfants et il n’y a plus d’excuses pour l’inaction.”

2023-06-28 15:07:31
1687955113


#commerce #illégal #dimages #dabus #sexuels #denfants #par #lIA #dévoilé

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.