2025-02-14 18:28:00
Ingénierie inverse pour détecter les «profondeurs» de la méta – Meta
Madrid, 14 février (Portaltic / EP) –
Une enquête menée par le fournisseur de solutions biométriques IPROOV a déterminé que seulement 0,1% des utilisateurs sont en mesure de distinguer avec précision un “fake profond ” généré par l’intelligence artificielle de contenu réel, les vidéos étant les plus difficiles à détecter, face aux images.
Les vidéos manipulées sont des vidéos manipulées via l’IA qui sont utilisées pour faire croire aux utilisateurs qu’ils voient une certaine personne faire des déclarations ou des actions irréel Échange de visages dans les images et le Modification vocale.
Bien que cette technologie ne soit adaptée qu’aux développeurs il y a quelques années, elle est désormais disponible pour tous, grâce aux progrès des technologies de clonage vocale et de la synchronisation des lèvres open source. De cette façon, il est possible de créer la voix d’une personne à partir d’un échantillon audio de quelques secondes.
Cette technologie, de plus en plus populaire et sophistiquée, représente “une menace écrasante dans le panorama numérique actuel” et a évolué considérablement au cours des 12 derniers mois, selon iproons. Selon son rapport de renseignement sur les menaces de 2024, le «Deepfake» n’a augmenté que de 704% uniquement dans l’échange de visages.
De cette façon, le «Deepfake» est en mesure de tromper la majorité des utilisateurs, au point que seulement 0,1% des utilisateurs peuvent distinguer avec précision le contenu réel du faux contenu généré par cette technologie, selon un récent rapport de la société.
Le fournisseur de solution pour la vérification de l’identité biométrique a fait un Enquête entre 2 000 utilisateurs du Royaume-Uni et des États-Unis et a déterminé que seul ce pourcentage a correctement identifié les détails qui déterminent qu’un contenu est généré avec l’IA.
“Dans les situations du monde réel, où les gens sont moins conscients, la vulnérabilité aux” profondes “est probablement encore plus grande”, ont déclaré des experts sur leur site Web, où ils ont expliqué les principales conclusions de leur étude.
À ce sujet, ils ont déduit que les grandes générations sont plus vulnérables aux «profondeurs», car 30% des répondants entre 55 et 64 ans et 39 pour cent de Ceux de plus de 65 ans n’avaient jamais entendu parler de cette technologie. Cela met en évidence “un écart de connaissances important et une plus grande sensibilité à cette menace émergente dans ce groupe d’âge”, a déclaré Iproov.
Au format «Deepfake», la société a indiqué que les vidéos étaient plus difficiles à détecter que les images, car les participants se sont avérés 36% moins susceptibles d’identifier correctement une fausse vidéo, par rapport à une photographie statique.
Cette vulnérabilité génère des “actions graves” sur la possibilité d’une fraude basée sur la vidéo, telles que l’identité de l’identité dans les appels vidéo ou sur des scénarios dans lesquels la vidéo est utilisée pour vérifier l’identité, comme cette entreprise l’a appréciée.
Iproov a également permis à ce que la confiance excessive soit répandue, car plus de 60% des répondants ont prétendu reconnaître un contenu généré par l’IA. Ceci est particulièrement chez les jeunes adultes, de 18 à 34 ans.
Sur cela, les réseaux sociaux jouent un rôle important, car les services de Méta (49%) y teltok (47%), D’après ByTedance, ce sont les plates-formes dans lesquelles ils sont le plus souvent des «profonds». Cela a provoqué moins de confiance dans les informations «en ligne», car 49% des utilisateurs font moins confiance aux réseaux sociaux après avoir connu l’existence de cette technique frauduleuse.
Moteur de désinformation
Une autre des conclusions qui ont été tirées après l’enquête est que les «profondeurs» génèrent une préoccupation et une méfiance généralisées, puisque trois personnes sur quatre – il s’agit de 74% des répondants – se soucient de l’impact social des “ profondes ‘. De même, les fausses nouvelles et la désinformation sont la principale préoccupation pour 68% des personnes.
Malgré tout ça, 29% ne prennent aucune mesure Lorsqu’il fait face à un prétendu “ Deepfake ”, c’est parce que 48% disent qu’il ne sait pas comment signaler ces escroqueries, tandis qu’un quart des utilisateurs ne se soucie pas s’il voit l’une de ces tromperies et, par conséquent, ne prend pas Mesurez pour le dénoncer.
L’analyse soutient également que la plupart des consommateurs ne vérifient pas activement l’authenticité des informations en ligne, ce qui augmente leur vulnérabilité aux «Foasfakes». Ainsi, seulement 11% des utilisateurs analysent de manière critique la source et le contexte des informations qu’ils reçoivent pour déterminer s’il s’agit d’une vidéo ou d’une image générée avec l’IA.
Iproov a finalement souligné que, pour lutter contre cette menace croissante, les organisations doivent adopter des solutions qui utilisent la technologie biométrique, QIl est capable de vérifier que c’est une personne Celui qui essaie d’exécuter une action et qui est correct, pas un autre qui le fait arriver.
#Seuls #des #utilisateurs #sont #capables #détecter #Deepfake
1739561460