Ebba Busch est utilisée à des fins frauduleuses – gardez un œil sur cela

Les fraudeurs parviennent de mieux en mieux à trouver différentes manières de tromper les gens.

L’intelligence artificielle permet d’y parvenir de manière avancée.

Désormais, les fraudeurs utilisent Ebba Busch pour tenter de tromper les gens sur les réseaux sociaux.

Ceci est rapporté par Svenska Dagbladet.

Restez à l’écoute

Lors de la tentative de fraude, une vidéo générée par l’IA est vue dans laquelle Ebba Busch parle d’un projet gouvernemental dans lequel les Suédois seront autorisés à investir dans le gaz naturel.

De cette façon, vous devriez pouvoir gagner de l’argent facilement et sans risque.

La vidéo n’est donc pas réelle et parle de fraude.

Un parmi tant d’autres

Ebba Busch est l’une des nombreuses célébrités utilisées pour tromper les gens.

– Il existe de nombreuses vidéos et échantillons de voix de célébrités, il est alors plus facile de créer un deepfake, explique Björn Appelgren, chef de projet à la Fondation Internet, à SvD.

Lire aussi  Paolo Guerrero est revenu au jeu après un mois lors du match nul du Pérou contre le Paraguay

– Lorsque la technologie s’améliorera, je pense qu’elle entrera dans une sphère plus privée, où les fraudeurs pourront utiliser la voix ou la vidéo sur des personnes que vous connaissez.

C’est deepfake

Il peut être difficile de reconnaître ce qui est réel et ce qui est faux sur Internet.

Le site Sekerhetskollen l’explique.

– Le terme deepfake vient de la fusion de deux mots anglais, deep machine learning et fake, et vise à décrire l’utilisation d’une technologie pour créer des vidéos, des clips audio ou des images manipulés qui semblent authentiques.

– Il est important d’être critique sur la source de ce que nous rencontrons dans notre quotidien et sur nos flux. Les fraudeurs profitent des nouvelles technologies et des nouveaux modes de communication et sont présents sur tous les canaux dans lesquels nous évoluons – et l’IA ne fait pas exception.

Restez à l’écoute

L’exemple le plus clair de vidéo deepfake peut être celui des mouvements non naturels du visage et du corps qui peuvent être examinés de plus près.

Lire aussi  Un gigantesque incendie de paillis dans l'ouest de Détroit affecte la qualité de l'air

Les cheveux, les dents, les mains et les yeux peuvent souvent paraître un peu étranges dans les faux extraits de films.

– Même les voix peuvent être copiées à l’aide d’applications ou de programmes deepfakes, par exemple un soi-disant générateur de voix deepfakepoursuit le Service de sécurité.

– Cela fonctionne de la même manière que les deepfakes basés sur des images et des vidéos, où l’IA capte et analyse les fichiers sonores de la voix d’une personne.

Photo : Bureau du gouvernement de N. Andersson

Texte : Les éditeurs

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.