Google prévoit d’exposer les images générées par l’IA dans la nouvelle mise à jour de Google Photos

La mise à jour de Google facilitera la détection des photos générées par l’IA

getty

Google déploie une nouvelle mise à jour importante qui permettra de repérer plus facilement les images générées ou modifiées avec l’IA.

À partir de cette semaine, Google Photos ajoutera une nouvelle section « Informations sur l’IA » à l’affichage des détails de l’image, permettant aux utilisateurs de savoir si l’image qu’ils visualisent a été créée ou manipulée à l’aide de l’IA. En vérifiant ces informations, les utilisateurs pourront voir plus facilement lorsqu’une image a été générée avec des outils d’IA, tels que l’application Gemini de Google, ou manipulée avec des fonctions basées sur l’IA comme Magic Eraser de Google Photos.

Fuites pour la première fois plus tôt ce mois-ci par le pronostiqueur Assemble Debug, ces nouvelles fonctionnalités de transparence de l’IA sont désormais disponibles. officiellement annoncé dans un récent article du blog Google Photos qui détaille comment l’entreprise permettra aux utilisateurs de repérer plus facilement l’IA dans les images.

Selon Google, vous verrez également quand des outils tels que Magic Editor, Magic Eraser et Zoom Enhance ont été utilisés. Et comme les métadonnées IPTC sont un format standard de l’industrie, vous pourrez voir des informations similaires sur l’IA divulguées par les applications de nombreuses autres sociétés, notamment Adobe et Microsoft.

Pourquoi les informations sur l’IA sont-elles importantes ?

Au milieu des inquiétudes croissantes concernant l’utilisation abusive potentielle de l’IA, les dernières mesures de Google augmenteront la transparence et la sensibilisation aux outils disponibles et donneront aux utilisateurs une première ligne de défense contre la désinformation basée sur les images et les deepfakes. Si vous n’êtes pas sûr d’une image trouvée en ligne, vous pouvez la télécharger et l’ouvrir dans Google Photos pour voir rapidement si des outils d’IA ont été utilisés avant de prendre une décision quant à son authenticité.

Ce changement peut également amener les utilisateurs à réfléchir à deux fois avant de partager des images manipulées, car leurs destinataires peuvent être alertés du fait qu’une image a été modifiée. Ces informations pourraient avoir des effets positifs en éradiquant la désinformation et les deepfakes ou en projetant une image corporelle réaliste en ligne.

Un bon début, mais pas une solution au problème

Même si la dernière initiative de Google apportera sans aucun doute une plus grande transparence aux utilisateurs, il est important de noter que Google transmet simplement des informations déjà stockées volontairement dans les images. Bien que les outils basés sur l’IA de Google intègrent automatiquement ces informations, d’autres outils ne le peuvent pas. De plus, toute personne déterminée à dissimuler son utilisation de l’IA pourra le faire facilement, car il est très simple de modifier ou de supprimer les métadonnées IPTC avant de partager une image – il suffit de prendre une capture d’écran de la photo. De nombreux services en ligne suppriment automatiquement ces données lorsque le contenu est téléchargé. Il est donc non seulement possible, mais probable, que ces « informations IA » se perdent au cours de leur parcours numérique, du créateur d’origine jusqu’à vous. À l’inverse, il est tout aussi facile pour un mauvais acteur d’ajouter de fausses balises IA à une vraie photo pour la discréditer.

Toutefois, des techniques plus sophistiquées sont en cours de développement. Google est déjà pionnier en matière de technologies plus robustes, telles que ID de synthétiseurqui intègre des filigranes invisibles dans des images, des vidéos, du texte ou de l’audio générés par l’IA, qui peuvent être décodés ultérieurement à l’aide d’outils logiciels.

Ces filigranes sont considérablement plus difficiles à supprimer car ils sont profondément fusionnés avec le support réel qu’ils protègent plutôt que comme une simple balise qui pourrait être supprimée ou modifiée. Par exemple, supprimer le nom d’un artiste d’une étiquette à côté d’un tableau serait facile, mais cacher le style du créateur serait beaucoup plus compliqué car il fait partie intrinsèque de l’œuvre. Les filigranes de SynthID sont comme des coups de pinceau imperceptibles, détectables uniquement par un analyste médico-légal qualifié.

Vous trouverez les nouvelles informations IA de Google Photos en sélectionnant une photo et en la faisant glisser vers le haut dans l’application ou en appuyant sur l’icône (i) affichée dans la version Web sur photos.google.com.

Suivre @paul_monckton sur Instagram.

ForbesGoogle Photos pour aider les utilisateurs à identifier les images créées par l’IAPar Paul MoncktonForbesGoogle applique une nouvelle fonctionnalité essentielle de confidentialité des photos AndroidPar Paul Monckton

#Google #prévoit #dexposer #les #images #générées #par #lIA #dans #nouvelle #mise #jour #Google #Photos

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Les choses qui arrivent. Gênes.

2024-10-25 07:00:00 /*! elementor – v3.18.0 – 20-12-2023 */ .elementor-widget-text-editor.elementor-drop-cap-view-stacked .elementor-drop-cap{background-color:#69727d;color:#fff} .elementor-widget-text-editor.elementor-drop-cap-view-framed .elementor-drop-cap{color:#69727d;border:3px solid;background-color:transparent}.elementor-widget-text-editor : pas (.elementor-drop-cap-view-default) .elementor-drop-cap{margin-top:8px}.elementor-widget-text-editor:not(.elementor-drop-cap-view-default)