Nouvelles Du Monde

Les escrocs utilisent des clones de voix générés par l’IA, avertit la FTC : NPR

Les escrocs utilisent des clones de voix générés par l’IA, avertit la FTC : NPR

Ce mercredi 14 avril 2016, photo d’archive, montre un téléphone fixe à bouton-poussoir, à Whitefield, Maine.

Robert F. Bukaty/AP


masquer la légende

basculer la légende

Robert F. Bukaty/AP

Ce mercredi 14 avril 2016, photo d’archive, montre un téléphone fixe à bouton-poussoir, à Whitefield, Maine.

Robert F. Bukaty/AP

Pendant des années, une escroquerie courante a consisté à recevoir un appel d’une personne prétendant être une figure d’autorité, comme un policier, vous demandant de toute urgence de payer de l’argent pour aider un ami ou un membre de la famille à se tirer d’affaire.

Maintenant, les régulateurs fédéraux avertissent qu’un tel appel pourrait provenir de quelqu’un qui ressemble exactement à cet ami ou membre de la famille – mais qui est en fait un escroc utilisant un clone de sa voix.

La Commission fédérale du commerce a lancé une alerte aux consommateurs cette semaine exhortant les gens à être vigilants pour les appels utilisant des clones de voix générés par l’intelligence artificielle, l’une des dernières techniques utilisées par les criminels dans l’espoir d’escroquer les gens avec de l’argent.

“Tous [the scammer] a besoin d’un court extrait audio de la voix du membre de votre famille – qu’il pourrait obtenir à partir du contenu publié en ligne – et d’un programme de clonage de la voix », a averti la commission. « Lorsque l’escroc vous appelle, il parlera exactement comme votre bien-aimé. “

Si vous n’êtes pas sûr qu’il s’agit d’un ami ou d’un parent, raccrochez et appelez-les

La FTC suggère que si quelqu’un qui ressemble à un ami ou à un parent demande de l’argent – en particulier s’il souhaite être payé par virement bancaire, crypto-monnaie ou carte-cadeau – vous devez raccrocher et appeler directement la personne pour vérifier son histoire.

Un porte-parole de la FTC a déclaré que l’agence n’était pas en mesure de fournir une estimation du nombre de signalements de personnes escroquées par des voleurs utilisant la technologie de clonage de la voix.

Lire aussi  "Le prince Harry et Meghan ont élaboré un plan pour éclipser la visite de William et Kate aux États-Unis"

Mais ce qui ressemble à une intrigue tirée d’une histoire de science-fiction est à peine inventé.

En 2019, des escrocs se faisant passer pour le patron d’un PDG d’une entreprise énergétique basée au Royaume-Uni demandé 243 000 $. UN directeur de banque à Hong Kong a été dupé par quelqu’un utilisant la technologie de clonage de la voix pour effectuer des transferts importants au début de 2020. Et au moins huit personnes âgées au Canada ont perdu un total de 200 000 $ plus tôt cette année dans une apparente arnaque de clonage de voix.

Les vidéos “Deepfake” prétendant montrer des célébrités faisant et disant des choses qu’elles n’ont pas faites deviennent de plus en plus sophistiquées, et les experts disent que la technologie de clonage de la voix progresse également.

Subbarao Kambhampati, professeur d’informatique à l’université d’État de l’Arizona, a déclaré à NPR que le coût du clonage de la voix baisse également, ce qui le rend plus accessible aux escrocs.

Lire aussi  La conférence Big Sky annonce le calendrier du basketball féminin

“Avant, cela nécessitait une opération sophistiquée”, a déclaré Kambhampati. “Maintenant, les petits escrocs peuvent l’utiliser.”

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT