Le « frère » maléfique de ChatGPT et autres menaces pour l’intelligence artificielle générative | Technologie

Le « frère » maléfique de ChatGPT et autres menaces pour l’intelligence artificielle générative |  Technologie

2024-01-20 07:20:00

FraudGPT est le frère ChatGPT maléfique. Il est promu dans le Web sombre et vous pouvez écrire un message en vous faisant passer pour une banque, créer malware ou afficher des sites Web susceptibles d’être fraudés, selon la plateforme d’analyse de données Netenrich. Autres outils comme WormGPT Ils promettent également de faciliter le travail des cybercriminels. L’intelligence artificielle générative peut être utilisée à des fins malveillantes : depuis la génération d’escroqueries sophistiquées jusqu’à la création de pornographie non consensuelle, de campagnes de désinformation et même d’armes biochimiques.

“Bien qu’il s’agisse d’un phénomène relativement nouveau, les criminels n’ont pas tardé à profiter des capacités de l’intelligence artificielle générative pour atteindre leurs objectifs”, explique Josep Albors, directeur de la recherche et de la sensibilisation de la société de sécurité informatique ESET en Espagne. L’expert donne quelques exemples : du développement de Hameçonnage de plus en plus perfectionné – sans fautes d’orthographe, en plus d’être très bien segmenté et orienté – à la génération de désinformation et contrefaçons profondes. C’est-à-dire des vidéos manipulées avec l’intelligence artificielle pour modifier ou remplacer le visage, le corps ou la voix d’une personne.

Pour Fernando Anaya, responsable pays D’après Proofpoint, l’intelligence artificielle générative s’est avérée être « une étape évolutive plutôt que révolutionnaire ». « Il est révolu le temps où il était conseillé aux utilisateurs de rechercher les erreurs grammaticales, contextuelles et syntaxiques évidentes pour détecter les e-mails malveillants », dit-il. Désormais, les attaquants ont la tâche plus facile. Demandez simplement à l’un de ces outils de générer un e-mail urgent et convaincant concernant la mise à jour des informations de compte et de routage.

De plus, ils peuvent facilement créer des e-mails dans de nombreuses langues. « Il est possible qu’un LLM (un modèle de langage colossal, qui utilise l’apprentissage en profondeur et est formé sur de grandes quantités de données), lisez d’abord tous les profils LinkedIn d’une organisation puis rédigez un e-mail très spécifique à chaque employé. Tout cela dans un anglais ou un néerlandais impeccable, adapté aux intérêts spécifiques du destinataire. » prévient le Centre néerlandais de cybersécurité.

Philippe Hackerprofesseur de droit et d’éthique de la société numérique à la Nouvelle École européenne d’études numériques, explique que l’intelligence artificielle générative peut être utilisée pour créer malware plus efficace, plus difficile à détecter et capable d’attaquer des systèmes ou des vulnérabilités spécifiques : « Même s’il est probable qu’une expertise humaine approfondie soit encore nécessaire pour développer des virus avancés, l’intelligence artificielle peut aider dans les premières étapes de la création de virus. malware».

La mise en œuvre de ce type de techniques « est encore loin d’être généralisée », selon Albors. Mais des outils comme FraudGPT ou WormGPT peuvent poser un « sérieux problème pour l’avenir ». “Avec leur aide, des criminels n’ayant pratiquement aucune connaissance technique préalable peuvent préparer des campagnes malveillantes de toutes sortes avec une probabilité de succès considérable, ce qui signifie pour les utilisateurs et les entreprises qu’ils devront faire face à un nombre encore plus grand de menaces.”

Générer de l’audio, des images et des vidéos

Plus une arnaque est convaincante, plus il est probable que quelqu’un en devienne la victime. Il y a ceux qui utilisent l’intelligence artificielle pour synthétiser l’audio. «Escroqueries comme la boucherie des cochons«Ils pourraient un jour passer des messages aux appels, augmentant encore le pouvoir de persuasion de cette technique», estime Anaya. Cette escroquerie, traduite en espagnol par « boucherie de porcs », est ainsi appelée parce que les attaquants « engraissent » les victimes, gagnent leur confiance et prennent ensuite tout ce qu’elles possèdent. Bien que cela soit généralement lié aux crypto-monnaies, cela peut également impliquer d’autres échanges financiers.

Les chercheurs de Proofpoint ont déjà vu des cybercriminels utiliser cette technologie pour tromper les responsables gouvernementaux. Quelque chose que montrent vos recherches sur le groupe TA499, qui utilise cette technique contre des hommes politiques, des hommes d’affaires ou des célébrités. « Ils passent des appels vidéo dans lesquels ils essaient de ressembler le plus possible aux individus usurpés grâce à l’intelligence artificielle et à d’autres techniques afin que les victimes partagent des informations ou les ridiculisent, en téléchargeant ensuite l’enregistrement sur les réseaux sociaux », explique Anaya.

L’intelligence artificielle générative est également utilisée pour mener des campagnes avec des images modifiées et même des vidéos. L’audio de présentateurs de télévision ou de personnalités importantes comme Ana Botín, Elon Musk ou encore Alberto Núñez Feijóo a été cloné. Voici comment Albors l’explique : « Ces deepfakes sont principalement utilisés pour promouvoir des investissements dans les crypto-monnaies qui se terminent généralement par la perte de l’argent investi. »

De la pornographie aux armes biochimiques

Hacker trouve l’utilisation de l’intelligence artificielle générative pour créer de la pornographie particulièrement « alarmante ». « Cette forme d’abus s’adresse presque exclusivement aux femmes et cause de graves préjudices personnels et professionnels », souligne-t-elle. Il y a quelques mois, des dizaines de mineurs d’Estrémadure ont signalé que circulaient de fausses photos de nus d’eux créées par l’intelligence artificielle. Certaines célébrités comme Rosalía ou Laura Escanes ont subi des attaques similaires.

La même technologie a été utilisée « pour créer de fausses images représentant des immigrants menaçants, dans le but d’influencer l’opinion publique et les résultats électoraux, et pour créer des campagnes de désinformation plus sophistiquées et plus convaincantes à grande échelle », comme le souligne Hacker. Après les incendies de forêt qui ont ravagé l’île de Maui en août, certaines publications ont indiqué sans aucune preuve qu’ils avaient été provoqués par une « arme climatique » secrète testée par les États-Unis. Ces messages faisaient partie d’une campagne menée par la Chine et comprenaient des images apparemment créées avec l’intelligence artificielle, selon Le New York Times.

Le potentiel de l’utilisation de l’intelligence artificielle générative ne s’arrête pas là. Un article publié dans le magazine Intelligence des machines naturelles indique que des modèles avancés d’intelligence artificielle pourraient aider à la création d’armes biochimiques. Quelque chose qui, pour Hacker, représente un danger mondial. De plus, les algorithmes peuvent infiltrer les logiciels des infrastructures critiques, selon l’expert : « Ces menaces hybrides brouillent les frontières entre les scénarios d’attaque traditionnels, les rendant difficiles à prévoir et à contrer avec les lois et réglementations existantes. »

L’enjeu de prévenir les risques de FraudGPT et autres outils

Il existe des solutions qui utilisent l’apprentissage automatique et d’autres techniques pour détecter et bloquer les attaques les plus sophistiquées. Néanmoins, Anaya met l’accent sur l’éducation et la sensibilisation des utilisateurs afin qu’ils puissent eux-mêmes reconnaître les e-mails de phishing et autres menaces. Pour Hacker, atténuer les risques liés à l’utilisation malveillante de l’intelligence artificielle générative nécessite une approche combinant mesures réglementaires, solutions technologiques et lignes directrices éthiques.

Parmi les mesures possibles, il mentionne la mise en place d’équipes indépendantes obligatoires qui testent ce type d’outils pour identifier les vulnérabilités et les éventuels abus ou l’interdiction de certains modèles open source. « Faire face à ces risques est complexe, car il existe des compromis importants entre les différents objectifs éthiques de l’intelligence artificielle et la faisabilité de la mise en œuvre de certaines mesures », conclut-il.

Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.




#frère #maléfique #ChatGPT #autres #menaces #pour #lintelligence #artificielle #générative #Technologie
1705738372

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.