2024-12-13 14:00:00
Kaspersky a partagé les résultats de son enquête mondiale avec la presse »Cyberdéfense & IA : les entreprises sont-elles prêtes à se protéger ?», réalisée pour avoir une mesure de la perception de la sécurité, liée à l’intelligence artificielle, par un groupe d’entreprises. Le interviste a 1 415 spécialistes de la sécurité d’entreprise ont été effectués entre fin septembre et début octobre d’Arlington Research et ont touché les entreprises d’au moins 100 salariés, jusqu’aux entreprises. En Italie, 450 entreprises étaient impliquées.
La réunion était organisée par César D’AngeloDirecteur Général Italie & Med, Giampaolo Dedolaéquipe mondiale de recherche et d’analyse des chercheurs en sécurité principaux, Fabio SammartinoResponsable Avant-Vente.
Les résultats de l’enquête
77 % des personnes interrogées ont déclaré que le nombre de cyberattaques a augmenté l’année dernière et 43 % pensent que la plupart d’entre eux sont liés à l’utilisation de l’IA. 84 % des professionnels de l’informatique et de la cybersécurité en Italie conviennent que dans les deux prochaines années l’utilisation de l’intelligence artificielle par les criminels va augmenter considérablementEn outre, 68 % des personnes interrogées en Italie sont sérieusement préoccupées par l’utilisation de l’IA par les cybercriminels.
César D’Angelo
Face à ces menaces renforcées par l’IA, les entreprises du monde entier cherchent à renforcer leurs stratégies de cybersécurité. 80 % des entreprises italiennes interrogées estiment qu’il est essentiel de s’appuyer sur des experts externes, tels que les fournisseurs de cybersécurité, et 42 % d’entre elles envisagent de le faire. En Italie, 82 % des personnes interrogées soulignent l’importance de renforcer les connaissances internes par la formation du personnel et 48 % mettent en œuvre des programmes de sensibilisation, particulièrement importants pour lutter contre le phishing et les deepfakes.
Mais même si nous comprenons les risques, les entreprises sont confrontées à des obstacles importants pour mettre en place une cybersécurité solide. 29% reconnaissent avoir des lacunes importantes dans ce secteur et en particulier 33% admettent ne pas disposer de nouvelles solutions de cybersécurité basées sur l’IA. 30 % ont du mal à obtenir des informations d’experts externes sur l’évolution du paysage des menaces liées à l’IA.
L’intelligence artificielle au service des cybercriminels
L’intelligence artificielle a eu un impact majeur sur le monde criminel. L’IA est utilisée par les attaquants pour adapter automatiquement les attaques au type de cible, pour multiplier les emails avec des textes différents, pour tromper les victimes avec de faux audio et vidéo. Les stratégies les plus utilisées sont le phishing, le deepfake, l’arnaque.
Giampaolo Dedola
D’après l’expérience de Kaspersky, l’intelligence artificielle générative est souvent utilisée pour créer plus facilement de faux sites Web (voire des centaines), contenant des liens vers des formulaires et du code frauduleux. Heureusement, ces pages contiennent souvent du texte étrange ou clairement lié à l’IA, afin que les défenseurs puissent les reconnaître et les signaler. Discours similaire pour les emails, créés automatiquement par centaines, avec des textes de plus en plus ou moins différents. D’après une analyse que nous avons réalisée sur les données des trois derniers mois de 2023, environ 21 % des e-mails frauduleux ont été générés avec l’intelligence artificielle.
Les deepfakes sont actuellement en nombre limité (même si certains ont attiré l’attention des médias en raison des sommes d’argent volées), mais ils suscitent de grandes inquiétudes, car combinés à des techniques d’ingénierie sociale, ils sont extrêmement efficaces. Les gens ont tendance à faire confiance à leurs collègues qu’ils connaissent lorsqu’ils entendent leur voix ou les voient dans une vidéo. Il est donc crucial d’apprendre aux employés à Ne prends rien pour acquisDe faire des recoupements e di avertir les supérieurs et les spécialistes de la cybersécurité lorsqu’ils reçoivent des demandes étrangessurtout s’ils concernent des transactions financières importantes.
Les cybercriminels utilisent également l’IA pour diriger campagnes de désinformationpour soutenir certaines idées voire nations sur les réseaux sociaux. Ils peuvent même mener, grâce à l’intelligence artificielle générative, des conversations avec de vrais utilisateurs.
Centre de recherche sur les technologies d’IA de Kaspersky
LAI Centre de recherche technologique par Kaspersky est le nouveau centre de compétences que l’entreprise a créée suite au grand développement de l’intelligence artificielle. L’utilisation de l’IA n’est pas nouvelle pour la marque, elle la met en œuvre depuis des années dans ses solutions pour les rendre plus efficaces. Mais depuis deux ans, on assiste à une véritable explosion dans le secteur de l’intelligence artificielle, notamment en matière d’intelligence générative.
Fabio Sammartino
La tâche du nouveau centre est d’étudier la manière dont les attaquants utilisent les technologies de l’intelligence artificielle pour mener des attaques, afin de développer des stratégies et des outils plus efficaces pour les contrer. Chaque jour, Kaspersky détecte plus de 400 000 nouveaux objets malveillants. Leur nombre augmente d’année en année et pour les cataloguer, nous utilisons l’IA, l’apprentissage automatique et les réseaux de neurones, qui nous permettent d’identifier les comportements dangereux.
En résumé, voici pourquoi les recherches de Kaspersky sur l’intelligence artificielle sont essentielles :
- Combattre les menaces évolutives: L’IA est essentielle pour suivre le rythme de l’évolution rapide du paysage des menaces et des techniques sophistiquées des logiciels malveillants.
- Améliorer la vitesse et l’efficacité: L’IA automatise les tâches, analyse de grandes quantités de données et identifie les menaces plus rapidement que les méthodes traditionnelles
- Améliorer la précision et réduire les faux positifs: Les algorithmes d’IA sont formés pour reconnaître des modèles et des anomalies subtiles, réduisant ainsi les faux positifs et améliorant la précision de la détection.
- Activer un modèle de défense proactif: L’intelligence artificielle permet d’identifier les vulnérabilités potentielles et de prédire les attaques futures, passant d’une cybersécurité réactive à proactive.
- Remédier à la pénurie de compétences en cybersécurité: Les outils d’intelligence artificielle peuvent renforcer les analystes humains, répondant ainsi au besoin croissant de professionnels de la cybersécurité
La marque aborde le développement de l’intelligence artificielle en suivant une code d’éthique précis:
- Transparence: Les clients ont le droit de savoir comment l’intelligence artificielle et l’apprentissage automatique sont utilisés
- Sécurité: Donner la priorité à la sécurité et à la résilience des systèmes AI/ML
- Contrôle humain: maintien des capacités de supervision et d’intervention humaine
- Confidentialité: respect de la vie privée et des droits à la protection des données
- Développement de la cybersécurité: AI/ML utilisé exclusivement à des fins défensives
Kaspersky est très attentif aux questions de transparence et de confidentialité des données. Il a réussi inspections par le Garant démontrant que toutes les informations qu’il traite sont rendues anonymes et conservé en Europeconformément au RGPD. C’est également l’une des rares entreprises à développer solutions sur sitequi permettent d’utiliser toutes les fonctionnalités qui nécessiteraient une connexion au cloud, mais en toute sécurité dans le système informatique du client.
Tendances pour 2025
C’est facile de prédire pour l’année prochaine une augmentation du recours à l’intelligence artificielletant par les attaquants que par les défenseurs. En particulier le LLM ils deviendront un outil standard pour la reconnaissance, la collecte d’informations, la recherche de vulnérabilités, la création de scripts et la génération de commandes post-exploitation. Les cybercriminels tenteront de dissimuler leurs activités sur les LLM publics, contourner les limitations imposées par les auteurs et créer un certain nombre de comptes factices. Il y aura également la possibilité que certains attaquants – ceux disposant de plus grandes ressources, généralement ceux financés par les organismes gouvernementaux – créer des services LLM privéspour soutenir leurs activités.
L’utilisation de faux profondqui deviendra de plus en plus plausible, grâce à la diffusion de meilleurs algorithmes génératifs et à la grande disponibilité de matériel original.
Enfin, les criminels pourraient entrer portes dérobées dans les modèles open source e manipolare i jeu de données open sourceà appliquer des techniques d’ingénierie sociale et à mener des campagnes de désinformation.
#Lintelligence #artificielle #est #également #utilisée #par #les #cybercriminels
1734255396