L’être humain n’est pas capable de détecter de manière fiable les “deepfakes” audio

L’être humain n’est pas capable de détecter de manière fiable les “deepfakes” audio

2023-08-02 21:00:07

Il y a quelques mois, en pleine session, le DJ David Guetta a fait une collaboration inattendue pour le public : la voix d’Eminem a commencé à résonner avec sa mélodie. Ou comme le disait l’artiste français, « Em-AI-nem ». Peu importe que le rappeur soit là en chair et en os ou non, l’important est que sa voix chante avec son style caractéristique et que le peuple danse avec une force redoublée par le coup d’adrénaline. Le jeu s’est parfaitement déroulé. Seulement que c’était un piège, ce n’était pas Eminem, mais un ‘deepfake’ généré par l’intelligence artificiel (IA).

Les « deepfakes » de vidéos ou d’images sont depuis longtemps un problème pour les médias, les autorités et les célébrités, en raison de leur énorme potentiel de diffusion de fausses nouvelles. Parmi celles-ci, on se souvient tous des images virales en mars où Donald Trump aurait été détenu, des photos du pape François en manteau matelassé et baskets à la mode ou encore des vidéos dans lesquelles le président Zelensky a encouragé les troupes ukrainiennes à se rendre. Cependant, il existe une autre classe de « deepfakes » qui passent inaperçus, bien qu’ils aient la même capacité à détruire des réputations, à provoquer des cyberattaques ou à violer des droits d’auteur : ‘deepfakes’ l’audio.

Ces contrefaçons sont générées via des échantillons audio filtrés par des modèles d’apprentissage automatique, et ils peuvent imiter le discours d’une personne réelle ou même générer des voix uniques. Les outils de création d’imitations vocales se sont améliorés à un rythme vertigineux, tout comme les générateurs de texte comme ChatGPT, ce qui soulève des inquiétudes quant à la utilisation criminelle Que peut-on faire avec cette technologie ? Par exemple, il a déjà été utilisé pour inciter les banquiers à autoriser des transferts d’argent frauduleux. En 2020, un cybercriminel a fraudé un directeur de banque des Émirats arabes unis de 35 millions de dollars en se faisant passer pour un client lors d’un appel téléphonique à l’aide d’un deepfake.

Lire aussi  Un acteur vocal dit que l'IA est utilisée pour alimenter une campagne de harcèlement cauchemardesque

«Avant les tromperies se faisaient par courrier, mais c’était beaucoup plus facile de découvrir le piège et maintenant cette technique est hors d’usage. Pour les cybercriminels, les IA audio sont un cadeau du ciel”exprimer David Sancho, responsable de l’analyse des menaces au sein de la société de cybersécurité Trend Micro. Afin de voir dans quelle mesure le commun des mortels peut tomber dans le piège de ces astuces, l’University College de Londres (Royaume-Uni) a mené une étude avec plus de 500 personnes où les sujets devaient différencier les faux vocaux et les vrais audios en anglais et en mandarin. La recherche, dirigée par l’experte en “apprentissage automatique” Kimberly Mai, a été publiée aujourd’hui, le 2 août, dans la revue d’accès public PLOS ONE.

Suite au test, l’étude a conclu que les participants “ne pouvaient détecter que des imitations profondes de la parole sur 73% du temps ». En outre, ils ont averti que certains participants recevaient des exemples d’imitations de voix pour former leurs compétences de détection, mais cela n’a pas influencé l’augmentation du degré de réussite. L’étude a également souligné que, puisque les participants savaient que certains sons étaient faux et que les chercheurs n’utilisaient pas les dernières technologies en matière d’IA générative, il est probable que les résultats diffèrent dans les situations réelles, le degré de réussite étant inférieur à celui représenté par les sujets de l’étude. Les experts en cybersécurité consultés par ABC sont d’accord avec les chercheurs : il sera chaque jour plus complexe de distinguer la réalité de la « fiction ».

Lire aussi  Welmoed Sijtsma recherche un créateur de fausses vidéos de sexe dans le programme Médias

IA contre IA : le jeu du chat et de la souris

Au vu des résultats, les chercheurs ont conclu que pas réaliste former les gens à détecter l’usurpation d’identité, et que les efforts devraient se concentrer sur améliorer les détecteurs automatiques. «C’est l’option la plus appropriée, car il arrivera un moment où les audios seront tellement polis que nous ne pourrons pas savoir si c’est réel avec nos oreilles. C’est un problème biologique”, dit-il. Joseph Albours, expert en sécurité informatique ESET. “D’un point de vue de la cybersécurité, nous savons que ces systèmes fonctionnent, car nous les utilisons depuis des décennies pour des attaques de ‘malware’ ou de ‘phishing'”, ajoute-t-il.

Cependant, d’autres experts comme Sancho restent sceptiques, car ils disent que opposer l’IA à l’IA, c’est comme “le jeu du chat et de la souris”. «Celui qui avance va gagner, celui qui est plus raffiné ou avancé” Expliquer. Pour éviter cela, Albors souligne que davantage de ressources doivent être investies et des recherches menées pour améliorer l’IA de détection, et non la laisser comme “quelque chose de secondaire”, car ce problème est “quelque chose qui se présente à nous”.

Lire aussi  Windows 11 obtient une option de fermeture forcée pour fermer les applications sans le gestionnaire de tâches

Attaques contre des personnalités publiques

Les experts disent que, malgré tout, le danger on le retrouve aujourd’hui dans les attaques contre les personnalités publiques et non chez l’utilisateur ordinaire. “Ils ont de nombreux enregistrements vocaux, d’interviews, de conférences de presse, de conférences ou de films, donc les attaques sont dirigées contre eux”, explique Albors. Bien qu’ils commentent que, comme pour les textes, les gens doivent être prudents et conscients que ces falsifications auditives existent et sont accessibles à tous.



#Lêtre #humain #nest #pas #capable #détecter #manière #fiable #les #deepfakes #audio
1691032976

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.