Les protections des filigranes numériques peuvent être facilement contournées

Les protections des filigranes numériques peuvent être facilement contournées

Cet article a été révisé selon Science X processus éditorial
et Stratégies.
Éditeurs ont mis en avant les attributs suivants tout en assurant la crédibilité du contenu :

faits vérifiés

préimpression

source fiable

relire


Illustration de nos attaques contre les méthodes de tatouage d’images. Le panneau supérieur montre l’attaque de purification par diffusion pour les filigranes à faible budget de perturbation (imperceptibles). Il ajoute du bruit gaussien aux images, créant une région indiscernable, ce qui aboutit à une limite inférieure certifiée de l’erreur des détecteurs de filigranes. Les images bruitées sont ensuite débruitées à l’aide de modèles de diffusion. Le panneau inférieur représente notre modèle d’attaque contradictoire de substitution contre les filigranes budgétaires à haute perturbation. Notre attaque implique la formation d’un classificateur de remplacement, la conduite d’une attaque PGD sur le modèle de remplacement et l’utilisation de ces images manipulées pour tromper le détecteur de filigrane de la boîte noire. Crédit: arXiv (2023). DOI : 10.48550/arxiv.2310.00076

× fermer


Illustration de nos attaques contre les méthodes de tatouage d’images. Le panneau supérieur montre l’attaque de purification par diffusion pour les filigranes à faible budget de perturbation (imperceptibles). Il ajoute du bruit gaussien aux images, créant une région indiscernable, ce qui aboutit à une limite inférieure certifiée de l’erreur des détecteurs de filigranes. Les images bruitées sont ensuite débruitées à l’aide de modèles de diffusion. Le panneau inférieur représente notre modèle d’attaque contradictoire de substitution contre les filigranes budgétaires à haute perturbation. Notre attaque implique la formation d’un classificateur de remplacement, la conduite d’une attaque PGD sur le modèle de remplacement et l’utilisation de ces images manipulées pour tromper le détecteur de filigrane de la boîte noire. Crédit: arXiv (2023). DOI : 10.48550/arxiv.2310.00076

L’aspect le plus effrayant de l’IA est peut-être sa capacité à générer de fausses images.

C’est sûr que certains font rire. Le visage d’Arnold Schwarzenegger superposé à celui de Dirty Harry de Clint Eastwood pointant une arme sur un suspect en fuite. Mike Tyson transformé en Oprah. Donald Trump s’est transformé en Bob Odenkirk de “Better Call Saul”. Nicholas Cage dans le rôle de Lois Lane dans “Superman”.

Mais les développements récents laissent présager une tendance plus inquiétante, à mesure que la contrefaçon numérique devient malveillante.

La semaine dernière, l’acteur Tom Hanks s’est rendu sur les réseaux sociaux pour dénoncer une publicité utilisant son image générée par l’IA pour promouvoir un régime de soins dentaires. Le populaire YouTuber Mr. Beast, qui revendique plus de 50 milliards de vues pour ses vidéos depuis 2012, a été faussement montré en train de proposer des iPhone 15 Pro pour 2 $.

Les citoyens ordinaires sont également visés. Des visages de personnes apparaissent sur des images sur les réseaux sociaux sans leur consentement. Le plus inquiétant est la multiplication des incidents de « vengeance pornographique », dans lesquels des amants rejetés publient des images fabriquées de leurs anciens compagnons dans des positions compromettantes ou obscènes.

Et alors que les États-Unis politiquement divisés abordent avec prudence une bataille très controversée pour la présidence en 2024, la perspective d’images et de vidéos falsifiées promet une élection d’une laideur sans précédent.

De plus, la prolifération de fausses images bouleverse le système judiciaire tel que nous le connaissons. Comme l’a récemment rapporté le média national à but non lucratif NPR, les avocats profitent d’un public malheureux, parfois déconcerté par ce qui est vrai ou faux, et contestent de plus en plus les preuves produites devant les tribunaux.

Hany Farid, spécialisé dans l’analyse d’images numériques à l’Université de Californie à Berkeley, a déclaré : « C’est exactement ce qui nous préoccupait : lorsque nous sommes entrés dans cette ère des deepfakes, n’importe qui peut nier la réalité. »

“C’est le dividende classique du menteur”, a-t-il déclaré, faisant référence à un terme utilisé pour la première fois en 2018 dans un rapport sur l’attaque potentielle des deepfakes contre la vie privée et la démocratie.

Les grandes entreprises de médias numériques – OpenAI, Alphabet, Amazon, DeepMind – ont promis de développer des outils pour lutter contre la désinformation. Une approche clé consiste à utiliser le filigrane sur le contenu généré par l’IA.

Mais un article publié le 29 septembre sur le serveur de prépublication arXiv soulève des nouvelles troublantes sur la capacité de lutter contre de tels abus numériques.

Des professeurs de l’Université du Maryland ont effectué des tests démontrant la facilité de contournement des filigranes de protection.

“Nous ne disposons pas de filigrane fiable à ce stade”, a déclaré Soheil Feizi, l’un des auteurs du rapport intitulé “Robustesse des détecteurs d’images IA : limites fondamentales et attaques pratiques”.

Feizi a déclaré que son équipe “les a tous brisés”.

“Une mauvaise utilisation de l’IA introduit des risques potentiels liés à la désinformation, à la fraude et même à des problèmes de sécurité nationale comme la manipulation électorale”, a prévenu Feizi. “Les deepfakes peuvent entraîner des préjudices personnels, allant de la diffamation à la détresse émotionnelle, affectant à la fois les individus et la société dans son ensemble. Par conséquent, l’identification du contenu généré par l’IA… apparaît comme un défi crucial à relever.”

L’équipe a utilisé un processus appelé purification par diffusion, qui applique un bruit gaussien à un filigrane puis le supprime. Il laisse un filigrane déformé qui peut contourner les algorithmes de détection. Le reste de l’image n’est que peu modifié.

Ils ont en outre démontré avec succès que de mauvais acteurs ayant accès aux algorithmes de filigrane de boîte noire pouvaient imposer de fausses photos avec des marquages ​​qui font croire aux détecteurs qu’elles sont légitimes.

De meilleurs algorithmes apparaîtront certainement. Comme cela a été le cas pour les attaques virales, les méchants s’efforceront toujours de briser les défenses proposées par les gentils, et le jeu du chat et de la souris continuera.

Mais Feizi a exprimé un certain optimisme.

“Sur la base de nos résultats, concevoir un filigrane robuste est une tâche difficile, mais pas nécessairement impossible”, a-t-il déclaré.

Pour l’instant, les gens doivent faire preuve de diligence raisonnable lorsqu’ils examinent des images contenant du contenu qui peut être important pour eux. La vigilance, la double vérification des sources et une bonne dose de bon sens sont de mise.

Plus d’information:
Mehrdad Saberi et al, Robustesse des détecteurs d’images AI : limites fondamentales et attaques pratiques, arXiv (2023). DOI : 10.48550/arxiv.2310.00076

Informations sur la revue :
arXiv


2023-10-08 15:20:01
1696769352


#Les #protections #des #filigranes #numériques #peuvent #être #facilement #contournées

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.