Nouvelles Du Monde

Après la crise de Taylor Swift… tout ce qu’il faut savoir sur les deepfakes ?

Après la crise de Taylor Swift… tout ce qu’il faut savoir sur les deepfakes ?

Des images sexuellement explicites de Taylor Swift, qui pourraient avoir été générées par l’intelligence artificielle, se sont rapidement répandues sur les réseaux sociaux cette semaine, dont certaines ont été vues des millions de fois avant des plateformes comme “, déclenchant le débat sur la régulation de l’intelligence artificielle.

Que sont les deep fakes ?

Les deepfakes sont de fausses vidéos ou photos réalistes créées à l’aide de la technologie d’échange de visages et de voix. Elles se propagent souvent sur les plateformes de médias sociaux et sont devenues meilleures pour imiter la voix d’une personne. Cela s’est produit à une époque où les outils de reconnaissance d’images créés par l’intelligence artificielle ont du mal à garder Il est donc difficile pour ces plateformes d’identifier les vidéos problématiques.

Les célébrités ont averti leurs abonnés de ne pas tomber dans le piège des deepfakes, et l’accès facile à la technologie photographique IA a créé un nouvel outil pour cibler les femmes, permettant à presque tout le monde de produire et de partager ses photos de nu.

À l’approche de l’élection présidentielle de 2024, l’IA donne également des excuses aux politiciens pour rejeter les preuves potentiellement préjudiciables en les qualifiant de falsifications générées par l’IA, et cela se produit au même moment où de véritables deepfakes de l’IA sont utilisés pour propager la désinformation.

Les deepfakes sont-ils illégaux ?

Il n’existe aucune loi fédérale qui rendrait illégale la création de deepfakes au niveau national, bien que certains législateurs aient présenté des projets de loi pour essayer, et au Congrès, le représentant Joseph Morrell (DN.Y.) a présenté un projet de loi appelé Intimate Image Deepfakes Prevention Act. Ce qui, selon lui, ferait de la création de ce type de vidéos un crime fédéral.

“La diffusion de photos explicites de Taylor Swift générées par l’IA est horrible – et malheureusement, cela arrive aux femmes partout, tous les jours”, a écrit Morell jeudi sur X.

Lors d’une conférence de presse vendredi, la porte-parole de la Maison Blanche, Karine Jean-Pierre, a déclaré que l’administration Biden était “troublée” par la propagation du virus et a déclaré que les sociétés de médias sociaux devaient “empêcher la propagation de désinformations et d’images intimes non consensuelles de personnes réelles”. .»

Le président Biden a également publié un décret en octobre qui, selon un communiqué de la Maison Blanche, établirait des normes et des meilleures pratiques pour le contenu généré par l’IA. Mais cela ne va pas jusqu’à obliger les entreprises à étiqueter les photos, vidéos et audio générés par l’intelligence artificielle.

Lors d’une conférence de presse à la Maison Blanche le 26 janvier, la porte-parole Karine Jean-Pierre a déclaré que l’administration était « troublée » par la diffusion de photos de Taylor Swift générées par l’IA, et certains législateurs d’État ont déclaré que le gouvernement fédéral avait mis du temps à agir.

En réponse, les États tentent de montrer la voie en mettant en œuvre des garde-fous contre l’IA, certains adoptant des mesures pour se protéger contre l’utilisation de deepfakes lors des élections, notamment le Texas et la Californie, et la Géorgie et la Virginie, entre autres, ont interdit la création de deepfake porn. sans leur satisfaction.

Cependant, certains affirment que l’interdiction de tous les types de vidéos deepfake pourrait violer le premier amendement, car les vidéos sont « techniquement des formes d’expression », selon le Princeton Law Review. Le journal a écrit que les fausses vidéos pornographiques obtenues de manière consensuelle ne seraient pas protégées. En vertu des exceptions du premier amendement qui incluent la calomnie, la diffamation et les grossièretés.

Certains chercheurs en droit préviennent également que les fausses images d’IA pourraient ne pas être protégées par le droit d’auteur car elles sont tirées d’ensembles de données contenant des millions d’images.

Comment repérer les deep fakes

Selon Sensity AI, qui suit les deepfakes, entre décembre 2018 et décembre 2020, le nombre de vidéos deepfake découvertes en ligne a doublé tous les six mois. Sensity a constaté qu’au moins 90 % des vidéos étaient du porno non consensuel, dont la plupart comprenaient. Plans montés de femmes.

Les chercheurs ont découvert qu’en 2023, plus de 143 000 vidéos totalisant plus de 4,2 milliards de vues ont été mises en ligne sur les 40 sites Web de vidéos deepfake les plus populaires, alors que la pornographie générée par l’IA explosait à travers le monde.

Mais à mesure que la technologie s’améliore, la détection des deepfakes devient de plus en plus difficile. Les politiques de Google empêchent les images sexuelles non consensuelles d’apparaître dans les résultats de recherche, mais les deepfakes peuvent toujours apparaître sur les moteurs de recherche, et certaines entreprises ont créé des outils pour tenter de détecter si une vidéo est … Il est peut-être créé par l’intelligence artificielle, mais ces outils ne sont pas parfaits.

Des chercheurs du MIT ont découvert que les humains et les machines peuvent identifier les fausses photos à un rythme similaire, et que tous deux commettent des erreurs en le faisant. Ces chercheurs ont suggéré que les humains accordent une attention particulière aux visages des personnes sur les photos et les vidéos qu’ils pensent être fausses. y compris les lunettes. L’individu, la pilosité faciale et la fréquence des clignements, qui peuvent tous sembler artificiels.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT