Home » Sciences et technologies » La cybersécurité flirte avec l’intelligence artificielle

La cybersécurité flirte avec l’intelligence artificielle

by Nouvelles

Ces 3 questions appartiennent à la liste de tout RSSI

En juillet, Wall Street a connu sa pire journée depuis 2022, le Nasdaq, axé sur la technologie, ayant chuté de 3,6 %. Cette baisse s’explique en grande partie par les résultats trimestriels décevants de certaines grandes entreprises technologiques. Ce qui est particulièrement frappant, c’est que les entreprises les plus touchées ont investi massivement dans l’intelligence artificielle (IA). Même si l’IA a suscité des investissements et un optimisme considérables, on craint de plus en plus que ses capacités aient été surestimées. Cette baisse des valeurs technologiques met en évidence la pression croissante exercée sur les décideurs pour démontrer que l’IA est réellement à la hauteur des attentes.

« Cette pression est particulièrement prononcée pour les RSSI. « Ils sont désormais confrontés à la tâche de garantir que leurs initiatives basées sur l’IA non seulement renforcent la cybersécurité, mais fournissent également des résultats mesurables pour la direction et les membres du conseil d’administration », explique Andy Grolnick, PDG du fournisseur de sécurité SIEM Graylog.

La cybersécurité bénéficie considérablement de l’IA

Les algorithmes d’apprentissage automatique basés sur l’IA aident à détecter les anomalies dans le comportement des utilisateurs – une capacité essentielle dans le paysage actuel des menaces en évolution rapide. Un étude en cours montre que 78 % des RSSI utilisent déjà l’IA sous une forme ou une autre pour soutenir leurs équipes de sécurité.

Cependant, comme toute technologie en évolution, l’IA doit être considérée avec une bonne dose de scepticisme. Pour garantir que les investissements dans l’IA produisent des résultats tangibles, Andy Grolnick conseille à chaque RSSI de se poser les trois questions essentielles suivantes.

Où est-il le plus judicieux d’utiliser l’IA ?

Avant de mettre en œuvre l’IA, il est important de déterminer où elle peut avoir le plus grand impact. Alors que de nombreux praticiens cherchent à intégrer l’IA dans la détection et la réponse aux menaces, il est important d’en comprendre les limites. Les grands modèles linguistiques (LLM) peuvent être utiles pour analyser les protocoles associés aux détections et fournir des directives générales de réponse. Cependant, la nature dynamique du paysage des menaces présente un défi : les acteurs de la menace utilisent également l’IA, et l’évolution rapide de leurs méthodes dépasse souvent les systèmes de détection des menaces.

Pour suivre le rythme des acteurs menaçants, l’IA peut avoir un impact significatif et immédiat dans un domaine : l’automatisation des tâches répétitives qui prennent actuellement une grande partie du temps des équipes de sécurité. Par exemple, les informations et conseils basés sur l’IA peuvent aider les analystes SOC à prioriser les alertes, réduisant ainsi la charge de travail et leur permettant de se concentrer sur des menaces plus complexes. En utilisant l’IA pour assister les analystes dans le SOC, les RSSI peuvent libérer leurs équipes des tâches peu prioritaires et améliorer les performances globales et les temps de réponse.

Existe-t-il des preuves que l’IA fonctionne dans mon cas d’utilisation ?

Tous les cas d’utilisation ne produisent pas des résultats équivalents, et il est plus sûr de s’appuyer sur des applications éprouvées avant d’expérimenter de nouvelles approches.

Par exemple, les systèmes de gestion des informations et des événements de sécurité (SIEM) utilisent depuis longtemps l’IA et l’apprentissage automatique pour l’analyse comportementale. Les systèmes d’analyse comportementale basée sur les utilisateurs et les entités (UEBA) alimentés par l’apprentissage automatique sont particulièrement efficaces pour détecter les activités anormales qui pourraient indiquer des menaces de sécurité, telles que des attaques internes, des comptes compromis ou un accès non autorisé.

Ces systèmes analysent de grandes quantités de données historiques pour établir des modèles de comportement pour les utilisateurs et les entités et surveillent en permanence l’activité en temps réel pour détecter les écarts par rapport à la norme. En se concentrant sur des applications d’IA bien établies comme l’UEBA, les RSSI peuvent garantir que leurs investissements en IA génèrent de la valeur tout en réduisant les risques.

Quelle est la qualité des données utilisées par les modèles d’IA ?

L’un des facteurs les plus cruciaux pour le succès de l’IA est la qualité des données fournies au modèle et à l’invite. La qualité des modèles d’IA dépend des données qu’ils consomment. Sans accès à des données précises, complètes et enrichies, les systèmes d’IA peuvent produire des résultats erronés.

Dans le domaine de la cybersécurité, où les menaces évoluent constamment, il est essentiel de fournir aux systèmes d’IA un ensemble de données diversifié comprenant le contexte de la surface d’attaque, des journaux détaillés, des alertes et des activités anormales.

Cependant, les nouvelles surfaces d’attaque, telles que les API, représentent un défi. La sécurité des API est une cible attrayante pour les pirates informatiques, car les API transmettent souvent des informations sensibles. Alors que les pare-feu d’applications Web (WAF) traditionnels étaient suffisants pour protéger les API dans le passé, les acteurs malveillants d’aujourd’hui ont développé des techniques sophistiquées pour violer les mesures de sécurité du périmètre. Malheureusement, en raison de sa relative nouveauté, la sécurité des API est souvent laissée sans surveillance et, pire encore, non incluse dans l’analyse des menaces de l’IA.

Parce que le succès dépend de la disponibilité de données de haute qualité, l’IA n’est peut-être pas encore la meilleure solution pour les surfaces d’attaque émergentes telles que les API, où des pratiques de sécurité de base doivent encore être développées. Dans ces cas-là, les RSSI doivent reconnaître que même les algorithmes d’IA les plus avancés ne compensent pas le manque de mesures de sécurité de base et de données fiables.

« L’IA a un énorme potentiel pour transformer la cybersécurité, mais ce n’est pas une panacée. En posant des questions cruciales sur les domaines dans lesquels l’IA peut apporter le plus de valeur, en s’appuyant sur des cas d’utilisation éprouvés et en garantissant l’accès à des données de haute qualité, les RSSI peuvent prendre des décisions éclairées sur comment et quand intégrer l’IA dans leurs stratégies de cybersécurité. Dans un paysage où les opportunités et les menaces évoluent rapidement, une approche stratégique de la mise en œuvre de l’IA sera la clé du succès », a conclu Grolnick.

À propos de Graylog

Graylog améliore la cybersécurité et les opérations informatiques grâce à ses solutions complètes SIEM, de gestion centralisée des journaux et de sécurité API. Graylog offre un avantage en matière de détection des menaces et de réponse aux incidents sur plusieurs surfaces d’attaque. Le mélange unique d’IA/ML, d’analyses avancées et de conception intuitive rend la cybersécurité plus intelligente, pas plus difficile. Graylog est également idéal pour résoudre les problèmes quotidiens de performances et de disponibilité informatiques. Contrairement aux systèmes concurrents complexes et coûteux, Graylog offre à la fois performances et prix abordable, simplifiant ainsi les défis informatiques et de sécurité. Graylog a été fondée à Hambourg, en Allemagne et son siège social est à Houston, au Texas. Les solutions de Graylog sont utilisées dans plus de 50 000 installations dans 180 pays. Apprenez-en davantage sur Graylog.comou reste avec nous X (Twitter) etLinkedIn en relation.

Image/Source :


#cybersécurité #flirte #avec #lintelligence #artificielle

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.