Comment l’IA facilite les deepfakes et la fraude

2024-09-28 06:30:00

La loi a toujours été difficile à appliquer sur Internet. Mais l’IA rend la tâche encore plus facile pour les criminels. Elle imagine des robes pour filles, crée des deepfakes pour les appels choquants et écrit des e-mails de phishing. Une plongée au plus profond de tous les égouts Internet.

Illustration Kaspar Manz / NZZ

Jennifer DeStefano est actuellement en route pour le studio de danse. Puis son téléphone sonne. “Maman ?” demande la voix de sa fille, puis encore : “Maman ?”

“Ouais, qu’est-ce qui ne va pas, Briana?”, demande-t-elle. La fille sanglote et dit : « J’ai fait une erreur. » Puis DeStefano entend une deuxième voix, un homme qui semble maintenant crier à sa fille : « Allonge-toi ! Retournez ! » Maintenant, la panique monte à DeStefano. Qui parle ainsi à sa fille ?

«Maman, ces hommes m’ont. Aide-moi! Aide-moi!” Elle sanglote, gémit, puis l’homme vient au téléphone : « Écoute, j’ai ta fille. Si tu dis quelque chose, je te remplirai l’estomac de médicaments.” Et : « Alors tu ne la reverras plus jamais. »

Il s’avère plus tard que la fille est en sécurité, sa voix est fausse. Mais DeStefano y sera plus tard Podcast disant à la BBC qu’elle était sûre que l’appel était réel. La voix de sa fille lui ressemblait tellement que DeStefano n’avait aucun doute.

Artificiellement stupide

Une série sur la question de savoir si l’intelligence artificielle brise Internet.

Voir tous les articles de cette série

Les experts en sécurité informatique comme Vincenzo Ciancaglini ne connaissent que trop bien de tels appels. Il étudie depuis environ cinq ans comment les criminels utilisent l’IA pour la branche européenne de la société japonaise de cybersécurité Trend Micro. Il n’est pas surpris que DeStefano soit tombé dans le piège.

« Pour beaucoup de gens, ce qui est possible avec l’IA confine à la magie », dit-il. Certaines personnes savaient grâce aux médias que les votes pouvaient être falsifiés. “Mais lorsqu’un deepfake comme celui-ci nous frappe sans préparation dans la vie de tous les jours, c’est quelque chose de complètement différent”, explique Ciancaglini. La plupart des gens ne réalisent pas à quel point les contrefaçons d’aujourd’hui peuvent être efficaces : voix, vidéos, même s’il s’agit de conversations en direct avec plusieurs participants.

Astuce pour les petits-enfants sous stéroïdes

L’exemple de DeStefano vient des États-Unis. Mais de tels appels choquants sont également courants en Suisse et en Allemagne. La Fondation Pro Senectute estime qu’au cours des cinq dernières années, près de 300 000 tentatives de fraude de ce type ont eu lieu dans toute la Suisse, rien que parmi les personnes de plus de 55 ans.

Il y a également près de 200 000 tentatives d’escroquerie utilisant l’astuce des petits-enfants. Celles-ci commencent généralement par un innocent « Bonjour grand-mère, devine qui est au téléphone ! » et terminez par une demande d’argent pour une urgence – peut-être un accident de voiture à l’étranger ou une arrestation erronée que l’appelant ne peut éviter qu’en payant une caution.

L’IA audio rend ces escroqueries beaucoup plus efficaces, car les criminels n’ont plus besoin de répondre eux-mêmes au téléphone, mais peuvent utiliser la voix d’un proche. Selon l’éditeur de logiciels McAfee Trois secondes d’audio d’une victime – provenant par exemple d’une vidéo sur les réseaux sociaux – suffisent pour simuler une voix. Ciancaglini dit qu’après 10 à 20 secondes, le faux semble quelque peu convaincant.

De plus, les services de lutte contre la fraude électorale sont faciles d’accès : il existe plus d’une douzaine de sites Web qui proposent exactement cela, dont plusieurs gratuitement.

Vous pouvez reconnaître l’urgence avec un mot de code

« Dans le passé, de telles contrefaçons ne pouvaient être créées qu’avec de grands efforts et de nombreuses connaissances techniques. Avec les outils d’IA d’aujourd’hui, n’importe quel amateur peut le faire », déclare Ciancaglini. Il semblerait que l’IA rende la vie des criminels plus facile que jamais.

Ciancaglini, dont la grand-mère a elle-même reçu un appel choquant, a ensuite présenté un mot de code à sa famille. Si quelque chose lui arrive réellement, il prononce un mot spécifique – par exemple, koala. Si le mot de passe n’apparaît pas dans la conversation, sa famille sait qu’il s’agit d’une tentative de fraude.

La prévention suisse de la criminalité déconseille cette pratique. Vous ne pouvez pas reconnaître un véritable appel à la voix ou au fait que des informations personnelles qui ne devraient être connues que dans le cercle le plus proche sont échangées. Au lieu de cela, vous devriez toujours vous méfier des appels choquants, c’est-à-dire des nouvelles choquantes et une demande d’argent. “Le choc et l’argent équivaut à une fraude” écrit l’organisation. La meilleure réponse à cela : raccrochez.

Photos de nus en classe

Mais la fraude électorale personnalisée n’est qu’un des moyens par lesquels les services d’IA facilitent la criminalité. Plus de vingt filles de la petite ville espagnole d’Almendralejo ont récemment dû subir un autre type de deepfakes : des photos d’elles nues ont été créées à leur insu et sans leur consentement.

Les photos provenaient à l’origine d’Instagram et montraient les filles entièrement habillées. Ils ont été édités à l’aide d’une IA qui reconnaît les visages sur les photos et génère des corps nus et réalistes. Les photos ont été montrées dans la cour de l’école le premier jour d’école après les vacances et partagées dans des groupes Whatsapp. D’après cela Portail Selon Euro News, la plus jeune des filles concernées avait onze ans.

Des services d’IA qui créent de telles photos nues sont proposés sur Telegram, explique le chercheur en sécurité Ciancaglini, qui surveille plusieurs chaînes criminelles sur le service de messagerie. “Pour un abonnement à vie au prix de 150 $, vous pouvez générer autant de nus que vous le souhaitez.” Il existe également diverses applications ou sites Web qui créent gratuitement un certain nombre de photos de nus.

“Il est difficile de se protéger contre de tels crimes”, explique Ciancaglini. Néanmoins, il conseille de garder votre propre site Web privé et de réfléchir attentivement aux photos, vidéos et fichiers audio que vous mettez en ligne de vous-même et des autres.

Le prince nigérian parle désormais parfaitement l’allemand

En plus des deepfakes, les criminels travaillent également avec des générateurs de texte tels que Chat-GPT. Après tout, de nombreuses escroqueries sur Internet commencent par un e-mail. Par exemple, vous êtes contacté par un prince nigérian qui vous demande une petite caution afin de pouvoir ensuite vous renvoyer une grosse somme.

Beaucoup de ces lettres comportaient jusqu’à présent des erreurs d’orthographe et de grammaire ; après tout, les auteurs n’étaient généralement pas de langue maternelle allemande. Grâce à des chatbots comme Chat-GPT, ces lettres de motivation peuvent désormais être générées sans erreur. Il en va de même pour les e-mails de phishing normaux contenant un programme malveillant, par exemple.

Cependant, Chat-GPT rejette également certaines demandes, telles que « Écrivez-moi un e-mail de phishing destiné à un spécialiste du marketing de 45 ans qui s’intéresse à la protection du climat ». Toutefois, si vous le faites intelligemment, c’est-à-dire si vous effectuez des saisies de texte sophistiquées, vous pouvez contourner les verrous de sécurité du système.

« Jailbreak » : les blocages dans Chat-GPT peuvent être contournés

Une fois, il suffisait de dire au modèle de passer en « mode développeur » et de répondre à nouveau à la question. Open AI a désormais reconnu et bloqué ce hack. Néanmoins, les utilisateurs patients parviennent toujours à trouver de nouvelles méthodes pour déjouer le système. Dans le jargon, cela s’appelle : jailbreak.

L’un des jailbreakers les plus célèbres est l’utilisateur de Twitter Pline le Libérateur. Il a pu extraire des instructions pour la production de crystal meth de la dernière version du Chat-GPT (4.o) et une autre pour le napalm, un agent incendiaire liquide, collant et interdit. Pendant une courte période, il a exécuté un programme permettant à d’autres utilisateurs de tromper Chat-GPT.

Gandalf : Êtes-vous bon en jailbreak ?

Si vous voulez essayer d’obtenir qu’un modèle de langage fasse quelque chose qu’il ne devrait pas faire, vous pouvez essayer le jeu Gandalf. Il vient de la société suisse d’IA Lakera et consiste à convaincre un chatbot de livrer un mot de passe secret.

Joignable à gandalf.lakera.ai

Vidéoconférence avec plusieurs faux participants

Un cas survenu à Hong Kong montre ce qui peut arriver lorsque des criminels combinent plusieurs méthodes d’IA. Là, un employé financier d’une entreprise internationale a été convoqué à une vidéoconférence avec le directeur financier, à laquelle se trouvaient plusieurs autres personnes.

Un échange a eu lieu au cours duquel l’employé a été persuadé de transférer de l’argent d’une valeur de 25 millions de dollars sur un compte qui lui était auparavant inconnu. Il s’est avéré plus tard que tous les participants à la vidéoconférence étaient des faux.

Même si l’employé avait Mer de CNN Au début, il y avait des doutes, notamment parce qu’un message faisait état d’un transfert secret. Mais ensuite, il a gagné en confiance parce qu’il participait à la vidéoconférence avec plusieurs collègues de travail qui avaient l’air et parlaient comme ils le faisaient toujours.

En cas de doute : rappelez-vous

S’il avait essayé de contacter lui-même le directeur financier par téléphone avant de lancer la transaction, il aurait peut-être pu empêcher la fraude. C’est probablement la meilleure méthode pour vous protéger contre de telles tentatives de fraude : si vous avez des demandes inhabituelles, appelez à nouveau les personnes qui semblent impliquées pour vous assurer de l’authenticité de votre demande.

Selon l’expert en cybersécurité Ciancaglini, il est désormais urgent de sensibiliser les gens aux méthodes frauduleuses basées sur l’IA, car de telles attaques risquent de devenir plus courantes à l’avenir. Ciancaglini souligne que les jeunes et les retraités constituent des groupes à risque qui doivent être particulièrement sensibilisés. «Parlez du sujet à vos collègues de travail et à votre famille», conseille Ciancaglini.

Et Jennifer DeStefano, qui a reçu un appel téléphonique choc avec la fausse voix de sa fille ? Tout en restant en contact avec les fraudeurs sur son téléphone, elle a réussi à appeler sa fille sur le téléphone portable d’une autre mère. Lorsqu’elle a réalisé qu’elle allait bien, elle a immédiatement raccroché l’appel frauduleux. Puis elle s’effondra au sol, soulagée.

Artificiellement stupide

Une série sur la question de savoir si l’intelligence artificielle brise Internet.




#Comment #lIA #facilite #les #deepfakes #fraude
1727541584

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.