Comment les équipes de sécurité et les acteurs menaçants utilisent l’intelligence artificielle

Comment les équipes de sécurité et les acteurs menaçants utilisent l’intelligence artificielle

2023-09-21 07:20:23

ChatGPT et d’autres grands modules d’apprentissage sont utilisés depuis moins d’un an, mais ces applications se transforment à un rythme presque exponentiel.

Les changements en cours présentent une étrange dualité pour le monde de la cybersécurité. C’est à la fois une aubaine et un danger pour les équipes de sécurité. Dans certains cas, permettre aux équipes de faire plus avec moins.

Malheureusement, ce qui est bon pour le chapeau blanc l’est également pour ceux de l’autre côté du pare-feu, car nous voyons des acteurs malveillants utiliser ChatGPT à des fins malveillantes et créer de nouvelles IA malveillantes.

Lors d’un récent webinaire Trustwave, Karl Sigler, directeur principal de la recherche en sécurité de SpiderLabs (cliquez ici pour regarder une rediffusion) a fait le point sur la façon dont l’IA change le visage de la sécurité de l’information. Veuillez consulter la rediffusion pour connaître les pensées complètes de Karl, mais jetons également un coup d’œil rapide à ce qu’il a couvert.

Commençons par un peu d’historique de ChatGPT :

  • Juin 2016 : OpenAI a publié une première recherche sur les modèles génératifs
  • Septembre 2019 : OpenAI a publié une recherche sur l’ajustement du modèle de langage GPT-2 avec les préférences et les commentaires humains
  • Novembre 2022 : OpenAI a présenté publiquement ChatGPT en utilisant GPT-3.5
  • Février 2023 : ChatGPT a atteint 100 millions d’utilisateurs plus rapidement que TikTok (9 mois)
  • Mars 2023 : OpenAI a introduit l’API ChatGPT et GPT-4 dans ChatGPT
  • Avril 2023 : OpenAI a publié les plugins ChatGPT, GPT-3.5/GPT-4 avec navigation
  • Mai 2023 : Les utilisateurs de ChatGPT Plus peuvent désormais accéder à plus de 200 plugins ChatGPT.

Au cours de cette période, ChatGPT et les modèles similaires ont eu un large impact, certains établissements d’enseignement et pays interdisant son utilisation.

Utiliser l’IA pour le mal

Utiliser une IA d’un type ou d’un autre pour générer des dissertations est le moindre des problèmes du monde. Au cours des derniers mois, SpiderLabs a constaté une augmentation de l’utilisation de grands modèles de langage, tels que WormGPT et FraudGPT, utilisés à des fins criminelles.

Les acteurs malveillants ont mis les deux à disposition « en tant que service » sur le dark web pour 60 euros par mois ou 500 euros par an. Nous ne sommes pas certains de leur efficacité ; après tout, nous n’enrichirons pas un méchant en achetant le service, mais nous pouvons faire une estimation à partir de ce que nous pouvons voir sur le dark web.

Les fournisseurs de services proposent une longue liste d’activités que le logiciel peut offrir, comme l’écriture de code malveillant, de logiciels malveillants indétectables, la création de pages de phishing, de pages de destination, de pages frauduleuses, etc. Encore une fois, nous n’avons pas encore joué avec ces produits, mais certaines personnes sur le dark web abonnez-vous et signalez de bons résultats.

Trustwave voit également d’autres IA se développer, capables non seulement de contourner les contrôles de sécurité, mais également spécialement conçues pour les activités malveillantes. Les gangs criminels construisent délibérément des IA pour créer des pages Web permettant de récupérer des informations d’identification, d’exploiter du code et d’annuler les correctifs provenant des fournisseurs.

Utiliser l’IA pour de bon

Bien que l’adoption de ChatGPT et de ses cousins ​​ait été un peu lente de notre côté du conflit, nous avons accéléré, les équipes de sécurité ne restant pas les bras croisés et concevant leurs propres modèles d’utilisation.

Il s’agit notamment de la collecte de renseignements sur les menaces en temps réel, de la traduction linguistique, de l’aide au codage, de l’assistance à la réponse aux incidents en guidant les analystes à travers des procédures de réponse standardisées, du respect des lois de gouvernance et de conformité, ainsi que du traitement des journaux d’hôte et de réseau.

Une tâche qu’une équipe de sécurité peut tenter consiste à télécharger une copie de metta et à commencer à la former pour qu’elle fonctionne au-delà de la formation de base prédéfinie. Formez-le aux politiques internes et externes de votre organisation, même aux politiques de réponse aux incidents.

Il peut aider une équipe à comprendre à quoi ressemblent ses diagrammes de réseau, son inventaire de base et ses playbooks de réponse aux incidents.

Entraîner une IA de cette manière est une tâche difficile et n’est pas mis en œuvre à grande échelle à ce stade, mais le potentiel est là.

Vous obtenez ainsi un assistant de sécurité des informations finement optimisé, conçu directement pour votre organisation.

Le principal point à retenir est ChatGPT et les autres IA à elles seules ne sauveront pas la situation des équipes de sécurité, mais ces applications constitueront un excellent assistant.

Trustwave et l’IA

Trustwave adopte l’IA à un rythme réfléchi. Par exemple, SpiderLabs utilise actuellement ChatGPT comme plate-forme de collecte d’informations, similaire à RSS, pour surveiller diverses sources et flux d’informations, puis extraire un résumé des articles majeurs pour examen.

Trustwave utilise l’apprentissage automatique et l’apprentissage profond dans notre logiciel anti-spam et anti-phishing. Un exemple est le produit de sécurité de messagerie de Trustwave, MailMarshal. Il s’agit d’un filtre anti-spam et phishing placé devant un serveur de messagerie, inspectant tous les e-mails qui le transitent à la recherche de tout élément suspect ou malveillant. Tout ce qu’il trouve est filtré.

Un endroit intéressant chez Trustwave où ChatGPT brille est celui d’un outil de traduction et d’écriture. En tant qu’organisation internationale, Trustwave compte de nombreux employés dont l’anglais n’est pas la langue maternelle.

L’anglais étant la langue principale de l’entreprise, ChatGPT s’est avéré d’une grande aide pour nos chercheurs, car l’une de leurs responsabilités consiste à rédiger des blogs SpiderLabs. Les chercheurs utilisent ChatGPT pour développer des articles de blog très faciles à modifier, facilitant ainsi la diffusion des dernières nouvelles et des informations importantes au public.

Le développement et l’adoption rapides de l’IA, en particulier de ChatGPT et de grands modèles linguistiques similaires, ont eu des conséquences positives et négatives pour le monde de la cybersécurité.

D’une part, les équipes de sécurité exploitent ces capacités d’IA pour améliorer leurs opérations, telles que la veille sur les menaces en temps réel, la traduction linguistique et les conseils de réponse aux incidents. D’un autre côté, les auteurs de menaces exploitent également l’IA à des fins malveillantes, en utilisant des modèles tels que WormGPT et FraudGPT pour générer du code malveillant, des pages de phishing et des logiciels malveillants indétectables.

En fin de compte, même si ChatGPT et d’autres IA peuvent aider les équipes de sécurité, elles ne constituent pas une solution autonome et nécessitent une expertise humaine pour une cybersécurité efficace.

#Comment #les #équipes #sécurité #les #acteurs #menaçants #utilisent #lintelligence #artificielle
1695283807

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.