2024-12-03 18:00:00
L’accélérateur CortAIx de Thalès a développé un métamodèle qui détecte les images, vidéos et audio générés par l’IA à des fins de désinformation, de manipulation et d’usurpation d’identité. Avec l’utilisation croissante des technologies d’IA, à une époque où la désinformation devient de plus en plus répandue répandule métamodèle de détection des deepfakes offre un moyen de lutter contre la manipulation d’images dans de multiples cas, comme la lutte contre la fraude à l’identité.
Des pertes financières importantes attendues
Les images générées par l’IA sont créées à l’aide de plateformes telles que Midjourney, Dall-E et Firefly. Certaines études prédisent que d’ici quelques années, l’utilisation de deepfakes à des fins d’usurpation d’identité et de fraude pourrait entraîner d’énormes pertes financières. Gartner a estimé qu’environ 20 % des cyberattaques en 2023 incluaient probablement du contenu deepfake dans le cadre de campagnes de désinformation et de manipulation. Le rapport met en évidence l’utilisation croissante des deepfakes dans les fraudes financières et les attaques de phishing.
Le métamodèle et les techniques
Christophe Meyer, Expert Senior en IA du CTO di cortAIx
Le métamodèle de détection des deepfakes de Thales aborde la question de la fraude à l’identité et des techniques utilisées métamorphose. L’agrégation de plusieurs méthodes – réseaux de neurones, détection de bruit et analyse de fréquence spatiale – nous aide à mieux sécuriser le nombre croissant de solutions nécessitant des contrôles d’identité biométriques. Il s’agit d’une avancée technologique remarquable qui témoigne de l’expertise des chercheurs en IA de Thales.
Quels sont les modèles les plus utilisés ?
Le métamodèle de Thales utilise des techniques d’apprentissage automatique, des arbres de décision et des évaluations des forces et des faiblesses de chaque modèle pour analyser l’authenticité d’une image. Combinez différents modèles, dont :
la méthode CLIP (Contrastive Language-Image Pre-training) consiste à connecter l’image et le texte en apprenant des représentations communes. Pour détecter les deepfakes, CLIP analyse les images et les compare à leurs descriptions textuelles pour identifier les incohérences et les artefacts visuels.
La méthode DNF (Diffusion Noise Feature) utilise les architectures de génération d’images actuelles (appelées modèles de diffusion) pour détecter les deepfakes. Les modèles de diffusion sont basés sur une estimation de la quantité de bruit à ajouter à une image pour provoquer une « hallucination », qui crée du contenu à partir de rien. Une estimation qui peut à son tour être utilisée pour détecter si une image a été générée par l’intelligence artificielle.
La méthode DCT (Discrete Cosine Transform) pour la détection des deepfakes analyse les fréquences spatiales d’une image pour détecter les artefacts caché. En transformant une image du domaine spatial (pixel) au domaine fréquentiel, il peut détecter des anomalies subtiles dans la structure de l’image, qui se produisent lorsque des deepfakes sont générés et sont souvent invisibles à l’œil nu.
Anomalies difficilement détectables : le rôle du métamodèle
Le groupe de travail de Thales à l’origine de cette invention fait partie de cortAIx, l’accélérateur d’intelligence artificielle du groupe, qui compte plus de 600 chercheurs et ingénieurs. Parmi eux, 150 sont basés au pôle de recherche et technologie de Saclay à Paris et travaillent sur des systèmes critiques. L’équipe Friendly Hackers a développé la boîte à outils BattleBox pour aider à évaluer les robustesse de systèmes basés sur l’intelligence artificielle.
Il sert à lutter contre les attaques conçues pour exploiter les vulnérabilités inhérentes aux différents modèles d’IA (y compris les grands modèles de langage), telles que les attaques contradictoires et les tentatives d’extraction d’informations sensibles. Pour contrer ces attaques, les chercheurs développent contre-mesures fonctionnalités avancées telles que le désapprentissage, l’apprentissage fédéré, le filigrane de modèle et le renforcement du modèle.
#métamodèle #révèle #contenu #deepfake #généré #par #lIA
1733288741