Images d’abus sexuels sur enfants avec l’IA : les enjeux de la Justice face à une tendance croissante

2024-08-27 06:30:00

Ce ne sont que deux cas, mais la tendance continue de s’accentuer et est déjà une question de conversion à différents niveaux.. Ce qui s’est passé à Roca, avec un groupe d’adolescents qui ont été dénoncés au tribunal de Río Negro pour avoir généré des images d’abus sexuels sur des enfants avec les visages de leurs camarades de classe grâce à l’intelligence artificielle (IA), a agi comme un élément déclencheur d’une réalité qui est déjà arrivée.

Image de L'indignation d'un père face aux photos de sa fille altérées par l'IA à Roca :

Le 8 août, la nouvelle a commencé à se répandre d’abord à Roca, puis dans la province et est même devenue une nouvelle nationale. Au moins quatre adolescents ont modifié des images de camarades de classe grâce à l’IA et généré des photographies d’abus sexuels sur des enfants, la classification qui s’applique à ces cas.
L’événement a généré des situations de tension dans les écoles entre les élèves eux-mêmes, les parents et les autorités éducatives.

L’affaire est examinée dans le plus grand secret par les tribunaux de Roca, car les personnes impliquées, Tant ceux qui ont généré les images que les victimes de la modification des photographies sont mineurs. L’une des possibilités à l’étude est de savoir si des proches plus âgés des adolescents accusés ont également participé à la manœuvre, en raison du type de programme de montage utilisé.

Une information non mineure qui a également été rapportée dans l’affaire sous enquête est de savoir si ces images ont été vendues via Telegram et Whatsapp. Même l’avocat qui défend la plainte d’une des familles de Roca, Il a déclaré que l’argent récolté était destiné à acheter des jetons dans des casinos virtuels.

Dans ce contexte, En Argentine, il n’existe aucune réglementation réglementant spécifiquement l’intelligence artificielle. Le 10 juin, le député national Juan Brügge a présenté à la Chambre des députés un projet de loi intitulé : « Régime juridique applicable pour l’utilisation responsable de l’intelligence artificielle dans la République argentine ». L’initiative vise à établir un cadre juridique pour l’utilisation éthique de l’IA. Le projet n’a pas encore été discuté.

Image de Plainte contre des adolescents de Roca pour avoir utilisé l'IA pour créer des photos d'abus sexuels sur des enfants : il y a eu des perquisitions

Selon des sources judiciaires de la Cour supérieure de justice, actuellement “Il y a deux cas sur cette question dans le pouvoir judiciaire de Río Negro et jusqu’à présent, l’expertise pertinente réalisée par les techniciens légistes du pouvoir judiciaire n’a pas été complétée.

Les métadonnées des photographies utiliséescomme expliqué, sont la clé pour tenter de faire la lumière sur les images modifiées par l’intelligence artificielle.

Trouver « l’empreinte numérique de la photographie », la clé des expertises sur les images retouchées avec l’IA


“Trouver l’empreinte digitale de la photographie”illustrent les sources consultées par le pouvoir judiciaire de Río Negro.
Au sein du pouvoir judiciaire de Rio Negro, il existe deux structures expertes qui travaillent sur ces cas. D’une part, il y a l’Office de l’informatique et des télécommunications, qui dépend du ministère public, et qui assure la traçabilité des communications et l’extraction d’informations sur les téléphones portables.

D’un autre côté, il y a le Direction de l’informatique judiciaire, qui dépend de la Cour supérieure de justice dee la province, et est dédié aux compétences informatiques et numériques.

Ces deux organes se complètent dans les enquêtes menées par la Justice et, dans ce cas précis de Roca, ils auront une pertinence encore plus grande, en raison de la complexité de la production d’images et de qui il s’agissait, et de suivre la trace des photos entre les téléphones portables.

Le faible nombre de cas résolus dans le pays rend les images modifiées par l’IA préoccupantes. consultation constante entre les informaticiens légistes des différents pouvoirs judiciaires de l’Argentine.

Image de Il y a un accusé dans l'affaire pour diffusion présumée d'images de maltraitance d'enfants à Bariloche

Les techniques de détection permettant de savoir comment et par qui l’IA a été utilisée sur les images sont affinées à mesure que de nouveaux cas apparaissent.

Un sujet abordé lors des réunions d’informaticiens médico-légaux portant sur la modification des images avec l’IA présente deux aspects : un, lorsque, par exemple, le visage d’un mineur est placé dans une image d’abus sexuel sur enfant. Là, la justice cherche à protéger le mineur violé.

Mais aujourd’hui, une autre tendance est apparue : création pure et simple d’images ou de scènes d’abus sexuels sur des enfants à partir de zéroce qui génère un débat qui ne serait pas informatique médico-légal, mais juridique.

L’alerte IWF sur le nombre de photos de mineurs


C’est précisément ces questions qui sont abordées depuis deux ans déjà par l’Internet Watch Foundation. (IWF), une organisation internationale qui lutte contre les abus sexuels sur enfants en ligne.

L’IWF a mis en garde contre l’impact de l’utilisation de L’IA pour manipuler des images de mineurs dans différents endroits du mondeprovoquant une augmentation de 360 ​​% des photos à caractère sexuel publiées sur le site Internet de garçons et de filles entre 7 et 10 ans.

De plus, ce risque augmente dans la population féminine, parce que 50% des images manipulés par l’IA qui ont été rapportés en 2022 par l’IWF, les mineurs apparaissaient entre 11 et 13 ans.

Les vidéos d’abus sexuels sur enfants avec l’IA, la nouvelle préoccupation des spécialistes


Selon Internet Watch Foundation (IWF) Le rapport « d’octobre 2023 a révélé la présence de plus de 20 000 images générées par l’intelligence artificielle dans un forum du « dark web » en un mois.où plus de 3 000 personnes ont montré des activités criminelles d’abus sexuels sur des enfants. Depuis lors, le problème s’est intensifié et continue d’évoluer», a prévenu l’organisation.

« Les images d’abus sexuels sur enfants générées par l’intelligence artificielle ont progressé à un rythme si rapide que l’IWF constate désormais le problème. premiers exemples réalistes de vidéos d’IA qui montrent les abus sexuels sur les enfants. a prévenu l’IWF.

« Les premières vidéos AI CSAM (Child Sexual Abus Material) sont déjà en circulation. Ce sont pour la plupart des vidéos partiellement synthétiques ” (en partie réelles et en partie artificielles), bien qu’il existe également des vidéos primitives qui sont totalement synthétiques (totalement artificielles)”, a prévenu l’organisation.

L’IWF a découvert une quantité croissante de contenus générés par l’IA, notamment des CSAM, sur le web transparent ou légal.

Alors que la génération d’images est considérée comme presque « résolue », des ressources sont consacrées à tenter de franchir la prochaine frontière : la génération vidéo. “Nous pouvons entrevoir les capacités futures du modèle dans les aperçus 2024 de Sora d’OpenAI et de Veo de Google”, ont-ils noté à propos des futurs générateurs vidéo d’IA de ces sociétés.

Besoin urgent de sécurité des enfants


Dans ce contexte, il n’y a jamais eu un besoin plus urgent de sécurité des enfants dès la conception à toutes les étapes du développement et de la distribution des modèles, et parmi tous les acteurs de l’écosystème de l’IA, souligne l’organisation dans son dernier rapport.

Vidéos AI CSAM trouvées au cours des recherches pour la mise à jour de ce rapport, probablement créées avec des outils open source primitifs, “ce sont les canaris de la mine de charbon”, le signal d’avertissement qui était autrefois utilisé dans les mines pour avertir de la présence de gaz toxiques.




#Images #dabus #sexuels #sur #enfants #avec #lIA #les #enjeux #Justice #face #une #tendance #croissante
1724737769

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.