imaginez : l’IA embarquée d’un satellite dysfonctionne, modifiant sa trajectoire, non pas à cause d’un défaut, mais parce que sa chaîne d’approvisionnement logicielle a été compromise discrètement des mois auparavant. Ou encore, un algorithme malveillant manipule les images provenant de capteurs spatiaux, érodant la confiance dans ce que nous observons depuis l’espace.
Ces préoccupations ne sont plus théoriques. elles représentent précisément les scénarios que des experts ont examiné lors d’un événement consacré à la cybersécurité spatiale et à l’intelligence artificielle (SCYWAI).
Un événement de deux jours a réuni des chercheurs, des responsables de la défense, des chefs d’entreprise et des étudiants pour explorer l’un des défis les plus urgents et complexes de notre époque : la sécurisation des systèmes spatiaux à l’ère de l’IA générative.
Des participants d’organisations ont illustré la collaboration intersectorielle au cœur de cet événement. Les sessions ont abordé des sujets tels que la détection d’anomalies, les systèmes de réponse autonomes, les obstacles réglementaires et la manière de construire des pipelines d’IA sécurisés pour les systèmes spatiaux. Les participants représentaient divers disciplines, secteurs et agences, et un thème clair s’est dégagé : ce défi ne peut être relevé seul.
Le center de recherche en technologies spatiales est une initiative à l’échelle de l’université. Il a été créé pour faire progresser la compréhension, l’exploration et l’utilisation de l’espace. Sa mission : traduire les risques émergents en stratégies concrètes et transformer les idées audacieuses en infrastructures réelles.
Selon certains experts, il est essentiel d’impliquer les innovateurs et les leaders d’opinion dans le domaine spatial. La nouvelle économie spatiale ne fera que croître en importance pour l’économie et notre vie quotidienne.D’après d’autres experts, certaines institutions sont “positionnées pour mener à la fois des recherches ouvertes et des recherches classifiées sensibles”, une combinaison importante qui permet la collaboration entre les secteurs universitaires, industriels et gouvernementaux. Grâce à de solides partenariats fédéraux et à des liens étroits avec le secteur aérospatial, certaines institutions sont bien placées pour mener ces discussions.
« Nous sommes dans un moment où tout change », a déclaré un expert. « Les coûts de lancement ont tellement baissé que l’espace n’est plus réservé aux gouvernements et aux entreprises de défense. Cela ouvre d’énormes possibilités, mais aussi d’énormes vulnérabilités. » Parallèlement, l’essor de l’IA générative a introduit de nouveaux outils puissants et de nouveaux risques. « C’est un domaine très complexe », a déclaré un expert. « Vous essayez d’appliquer des techniques qui doivent fonctionner dans des environnements aux ressources limitées
.»
Un intervenant a souligné la nature à double tranchant de l’intelligence artificielle. « Les mêmes technologies qui nous donnent du pouvoir présentent également des risques de sécurité sans précédent »
,a-t-il déclaré. Il a décrit l’investissement du ministère de l’Air force dans des outils d’IA qui « augmentent la prise de décision humaine, permettant des décisions plus rapides et plus éclairées »
, et ses efforts pour constituer une main-d’œuvre capable de développer et de déployer rapidement des applications sécurisées et fiables. « Dans le monde de l’IA et de la cybersécurité,l’avenir est quelque chose que nous pouvons à la fois prédire et créer ensemble »
,a-t-il ajouté.
Un autre intervenant a offert une réflexion franche sur la préparation de l’IA pour les missions à enjeux élevés. S’appuyant sur des décennies d’expérience dans le domaine de la sécurité nationale, il a averti que les systèmes d’IA actuels dissimulent souvent l’incertitude, manquent de limites claires et ne peuvent pas expliquer leurs décisions, autant de lacunes essentielles lorsque des vies ou des décisions politiques sont en jeu. « Les nouvelles technologies peuvent avoir des avantages, mais elles ont aussi presque toujours un comportement indésirable imprévu »
, a-t-il noté.
L’atelier a offert l’occasion de voir des recherches sur la sécurisation des chaînes d’approvisionnement de logiciels pour les CubeSats dans un contexte réel. Les CubeSats,petits satellites à faible coût utilisés pour la recherche et l’éducation,sont des cibles de plus en plus importantes pour la cybersécurité,car leurs cycles de développement rapides et leurs architectures ouvertes
L’article décrit des préoccupations croissantes concernant la cybersécurité spatiale et l’intelligence artificielle (IA) embarquée. Des experts ont examiné des scénarios tels que :
* L’IA embarquée d’un satellite modifiant sa trajectoire en raison d’une compromission de sa chaîne d’approvisionnement logicielle [[2]].
* Un algorithme malveillant manipulant les images de capteurs spatiaux, érodant la confiance dans les observations spatiales.
Ces scenarios ont été discutés lors d’un événement dédié à la cybersécurité spatiale et à l’IA (SCYWAI), qui a réuni des chercheurs, des représentants de la défense, des chefs d’entreprise et des étudiants. L’objectif était d’explorer comment sécuriser les systèmes spatiaux à l’ère de l’IA générative. Des discussions ont porté sur la détection d’anomalies, les systèmes de réponse autonomes, les obstacles réglementaires et la création de pipelines d’IA sécurisés pour les systèmes spatiaux. Le thème central était que ce défi ne peut être relevé seul, soulignant la nécessité d’une collaboration intersectorielle. L’IA embarquée (également appelée “embodied AI”) est une intelligence artificielle intégrée dans des systèmes physiques, tels que des robots ou des machines autonomes [[3]]. L’IA de confiance et l’IA embarquée sont des enjeux stratégiques et industriels majeurs [[2]].