Home » Sciences et technologies » Des escroqueries par phishing à l’ingénierie sociale, comment les escrocs utilisent le nouveau chatbot IA

Des escroqueries par phishing à l’ingénierie sociale, comment les escrocs utilisent le nouveau chatbot IA

by Nouvelles
Des escroqueries par phishing à l’ingénierie sociale, comment les escrocs utilisent le nouveau chatbot IA

Les fraudeurs basés sur l’IA sont de plus en plus sophistiqués et causent de sérieux dégâts. De l’ingénierie sociale à la distribution de logiciels malveillants en passant par les escroqueries par phishing, les chatbots des fraudeurs basés sur l’IA, appelés FraudGPT, deviennent de plus en plus populaires et sophistiqués.

Lors du Forum économique mondial annuel de Davos, les dirigeants de la cybersécurité se sont réunis pour discuter des défis croissants auxquels sont confrontés les organismes chargés de l’application des lois à l’échelle mondiale. Jurgen Stock, secrétaire général d’Interpol, a souligné les obstacles persistants résultant des technologies avancées telles que l’intelligence artificielle (IA) et les deepfakes.

Stock a souligné que les forces de l’ordre sont aux prises avec une crise due à l’augmentation du volume de la cybercriminalité. Malgré les efforts de sensibilisation à la fraude, Stock a noté qu’un nombre croissant de cas continuent d’apparaître.

Il a déclaré : « Les forces de l’ordre mondiales sont aux prises avec le volume considérable de la cybercriminalité. La fraude entre dans une nouvelle dimension avec tous les appareils proposés par Internet. Le crime ne connaît qu’une seule direction, vers le haut. Plus nous sensibilisons, plus vous découvrez de cas. La plupart des cas ont une dimension internationale.

Articles Liés

ChatGPT, attaque ! OpenAI travaille avec les forces armées américaines pour créer des outils de cybersécurité

Le PDG d’OpenAI, Sam Altman, épouse son petit ami de longue date : qui est Oliver Mulherin ?

Au cours des discussions, le panel a exploré le domaine de la technologie, notamment FraudGPT, une itération néfaste du populaire chatbot IA ChatGPT. Stock a révélé que les cybercriminels s’organisent en fonction de leur expertise au sein d’un réseau souterrain, doté d’un système de notation qui améliore la fiabilité de leurs services.

FraudGPT est un chatbot IA qui exploite des modèles génératifs pour générer un texte convaincant et cohérent. Il utilise des modèles de langage formés sur de vastes données textuelles pour produire des réponses de type humain aux invites des utilisateurs.

Les cybercriminels exploitent FraudGPT à diverses fins malveillantes, notamment les escroqueries par phishing, l’ingénierie sociale, la distribution de logiciels malveillants et les activités frauduleuses.

Les escroqueries par phishing: FraudGPT a la capacité de produire des e-mails, des messages texte ou des sites Web de phishing convaincants qui semblent authentiques, incitant les utilisateurs à divulguer des informations sensibles telles que des informations de connexion, des informations financières ou des données personnelles.

Ingénierie sociale: En utilisant une conversation de type humain, FraudGPT peut imiter de véritables interactions pour établir la confiance avec des individus sans méfiance, les persuadant finalement de partager par inadvertance des informations sensibles ou de se livrer à des activités nuisibles.

Distribution de logiciels malveillants : En générant des messages trompeurs, FraudGPT incite les utilisateurs à cliquer sur des liens malveillants ou à télécharger des pièces jointes nuisibles, ce qui compromet leurs appareils par le biais d’infections par des logiciels malveillants.

Activités frauduleuses : Tirant parti de ses capacités d’IA, FraudGPT aide les pirates informatiques à créer des documents, des factures ou des demandes de paiement frauduleux, piégeant ainsi les particuliers et les entreprises dans des escroqueries financières.

Les risques liés à l’IA en matière de cybersécurité ont également été soulignés lors des discussions. Si l’IA a joué un rôle important dans l’amélioration des outils de cybersécurité, elle a également introduit des risques.

Stock a souligné que même les individus ayant des connaissances technologiques limitées peuvent désormais mener des attaques par déni de service distribué (DDoS), élargissant ainsi la portée des cybermenaces. Le caractère de plus en plus abordable et accessible des outils d’IA devrait amplifier les risques pour la cybersécurité.

2024-01-19 14:32:12
1705873511


#Des #escroqueries #par #phishing #lingénierie #sociale #comment #les #escrocs #utilisent #nouveau #chatbot

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.