OpenAI reconnaît que les cybercriminels utilisent ChatGPT pour soutenir la création de logiciels malveillants

2024-10-14 12:21:00

MADRID, 14 octobre (Portaltic/EP) –

Les cybercriminels utilisent le grand modèle de langage GPT d’OpenAI pour créer des logiciels malveillants avec le soutien de l’intelligence artificielle (IA), malgré les limitations intégrées par l’entreprise technologique, ainsi que pour créer et diffuser du contenu sur les réseaux sociaux.

OpenAI a perturbé plus de 20 opérations et réseaux malveillants dédiés à la tromperie qu’ils ont essayé d’utiliser leurs modèles. À cela s’ajoutent des activités telles que la rédaction de publications pour les réseaux sociaux et le débogage de logiciels malveillants, que l’entreprise inclut dans la mise à jour du rapport. «Cyber ​​​​influence et opérations».

Avec cette analyse, OpenAI a l’intention comprendre les différentes manières dont les modèles d’IA avancés sont utilisés par des acteurs malveillants à des fins dangereuses, afin d’anticiper et de planifier de manière adéquate les mesures d’application de la loi.

Dans ce contexte, depuis octobre 2024, l’entreprise a vérifié que les cybercriminels utilisent des modèles d’IA « pour effectuer des tâches dans une phase spécifique et intermédiaire de l’activité”, C’est-à-dire après avoir acquis des outils de base tels que les comptes de réseaux sociaux et les e-mails, mais avant de « déployer des produits finis », tels que les publications sur les réseaux sociaux et les logiciels malveillants.

Dans tous les cas, OpenAI indique que même si les acteurs malveillants utilisent leurs modèles, ils n’ont pas détecté que cette utilisation s’est traduite par d’importantes capacités d’exploitation de vulnérabilités dans le monde réel, c’est-à-dire qu’elle n’a pas conduit à « la création substantielle de nouveaux logiciels malveillants ». .” ni dans la création d’audiences virales.

Oui, ils ont détecté activité trompeuse sur les réseaux sociaux qui touche un large public, mais dans ces cas, précise-t-il, « l’intérêt était une tromperie sur l’utilisation de l’IA, et non sur l’utilisation de l’IA elle-même ».

L’un des cas analysés est celui de DouxSpectun groupe de menace basé en Chine qui a utilisé les modèles OpenAI « pour soutenir ses cyberopérations offensives tout en mener des attaques de phishing” qu’il a dirigé contre les employés de l’entreprise technologique, se faisant passer pour un utilisateur de ChatGPT qui cherchait l’aide du support technique, pour infecter leurs ordinateurs et les contrôler.

De son côté, l’acteur iranien TEMPÊTE-0817 utilisé des modèles d’IA pour déboguer le code et obtenir une aide à la programmation d’un nouveau « malware » pour Android encore en développement et « relativement rudimentaire », doté de capacités de surveillance standards. J’utilise également ChatGPT pour implémenter l’infrastructure de commande et de contrôle.

OpenAI a également assuré que, au cours d’une année au cours de laquelle plus de 2 milliards de personnes sont appelées à participer aux processus électoraux dans 50 pays du monde, ils n’ont pas observé “aucun cas d’opérations d’influence liées aux élections qui attirer un engagement viral ou créer des audiences durables » grâce à l’utilisation de leurs modèles d’IA.



#OpenAI #reconnaît #les #cybercriminels #utilisent #ChatGPT #pour #soutenir #création #logiciels #malveillants
1728919072

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.