2025-01-06 10:40:00
Le guerre en Ukraine a fortement stimulé la numérisation de la défense pour deux raisons. Il a été constaté que les données collectées à des fins commerciales ou civiles présentent un grand potentiel pour les opérations de défense. Par exemple, les données partagées sur les réseaux sociaux par les citoyens, comme les photos, sont pertinentes pour suivre les pertes de matériel militaire ou documenter les crimes de guerre. Cela a poussé les moyennes et grandes entreprises du secteur à développer de nouvelles technologies et services (souvent testés directement en Ukraine) élargissant la gamme d’utilisation du numérique pour la défense. L’intelligence artificielle (IA) est la protagoniste de cette transformation. L’IA modifie l’ensemble des processus décisionnels et opérationnels de défense, du renseignement aux cyberopérations en passant par les opérations cinétiques (de combat). C’est un facteur discriminant en défense, un capacité clésans lequel il est difficile de conserver l’avantage sur l’adversaire.
Bien que bénéfique pour la défense, l’IA se prête à des usages inquiétants. Dans la guerre russo-ukrainienne, les deux fronts ont utilisé et utilisent des armes autonomes, même si leur légitimité reste encore à établir. Les préoccupations s’étendent également aux usages d’aide à la décision. C’est le cas de l’Évangile e Levenderdeux systèmes d’IA utilisés par Israël pour identifier des cibles dans la bande de Gaza et sans processus de contrôle adéquats et malgré un seuil élevé de faux positifs (10%, pour un total d’au moins 3700 faussement identifiés).
L’IA en guerre
À l’heure actuelle, l’arme la plus dangereuse de l’armée israélienne est l’IA
édité par Pier Luigi Pisa
La défense est un secteur à haut risque : l’IA peut ici apporter de grands bénéfices mais aussi violer les droits fondamentaux des êtres humains et les valeurs fondatrices de nos sociétés. C’est pourquoi le vide réglementaire entourant l’adoption de l’intelligence artificielle dans la défense est particulièrement remarquable. Dans les démocraties libérales, la gouvernance de l’IA n’en est qu’à ses premiers pas. Pour l’instant, le seul règlement en vigueur est le European AI Act, qui précise toutefois que les utilisations de l’IA à des fins de défense n’entrent pas dans son champ d’application (Art 3).
Il existe des lois humanitaires internationales, dont les dispositions s’appliquent également dans le cas de l’IA, mais elles sont difficiles à appliquer directement. Par exemple, il est crucial d’attribuer la responsabilité individuelle aux crimes de guerre. Les documents du procès de Nuremberg réitèrent également ceci : « Les crimes contre le droit international sont commis par [esseri umani]et non par des entités abstraites, et ce n’est qu’en punissant les individus qui commettent de tels crimes qu’il est possible de faire respecter les dispositions du droit international. »
Sommet d’action sur l’IA
L’intelligence artificielle a besoin d’une autoroute pour se développer
par Barbara Caputo*
Dans le cas de l’IA, par exemple lorsqu’elle est utilisée dans des armes autonomes, l’attribution de responsabilité est très problématique. En partie parce que ces machines sont produites de manière distribuée, il est difficile d’identifier les choix de conception et d’utilisation qui ont ensuite conduit à des actions criminelles. Mais le véritable problème est que ces machines peuvent effectuer des actions indésirables que les concepteurs et les utilisateurs n’avaient ni anticipées ni voulues. Au moins pour l’éthique, lorsque le lien entre intention et conséquence est rompu, il est difficile d’attribuer une responsabilité.
Le cas des armes autonomes nous montre que réglementer les utilisations de l’IA dans la défense est nécessaire mais nécessite une analyse conceptuelle pour comprendre les changements qu’impliquent ces utilisations, identifier les opportunités et les risques et équilibrer les intérêts légitimes. Cette analyse est cruciale pour définir des solutions alignées sur les valeurs et les droits qui fondent les démocraties libérales. L’alternative est que la numérisation de la défense devienne l’occasion de la défaite de nos démocraties, car elles se défendent en violant les valeurs et les droits mêmes qui les ont fondées.
Cependant, le sujet de l’éthique de l’IA dans la défense reste encore en marge du débat public. C’est une conséquence de la façon dont nous percevons la défense et la guerre. Par exemple, les pacifistes considèrent l’éthique de l’IA dans la défense comme redondante : la guerre elle-même est inacceptable. Une fois parvenu à cette conclusion, aucune autre analyse éthique n’est nécessaire, que l’intelligence artificielle soit impliquée ou non. Pour les plus cyniques, allez realpolitikl’éthique de l’IA dans la défense n’est pas pertinente, voire constitue un obstacle, car elle limite l’utilisation d’une technologie à fort impact stratégique et tactique. Cela pourrait donc nous désavantager par rapport à nos adversaires.
Je pense que les deux positions sont fausses. Je suis d’accord avec les pacifistes, la guerre est un mal à éviter. Mais il existe des formes de guerre justifiées, celles de la défense. Les guerres justifiées doivent être menées dans le respect des valeurs et des droits que j’ai mentionnés plus tôt. L’éthique sert à les identifier et à indiquer la manière de les respecter dans des contextes aussi difficiles que la guerre.
Beaux esprits
Manolo Luppichini : ce sont les « arbres de réseau » qui maintiennent Gaza connectée au monde
par Eléonora Chioda
En pensant à l’utilisation de l’IA dans la défense, un passage de l’Odyssée nous vient à l’esprit, quand Ulysse ordonne à Télémaque de retirer les épées de la pièce où arriveront les prétendants, “car le fer [le spade] elle-même attire l’homme » – les armes incitent les êtres humains à la violence. Je me suis demandé si l’IA incite ou n’est qu’un moyen de perpétrer ces abus ; en d’autres termes, que ce soit les armes à feu ou les personnes qui les utilisent qui tuent. Un vieux problème pour les acteurs de l’éthique des technologies, une question cruciale à résoudre pour développer une gouvernance de l’IA dans la défense et éviter que ces dérives ne se reproduisent. Si l’épée incite à la violence, c’est parce qu’elle a été conçue, développée et utilisée pour provoquer la violence. Il en va de même pour l’intelligence artificielle : les abus de cette technologie dans le domaine de la défense sont le résultat d’une mauvaise conception, développement et mise en œuvre. L’éthique est nécessaire dans toutes ces étapes pour empêcher que des guerres justifiées n’entraînent des conséquences injustes et atroces.
Même les cyniques font des erreurs. D’un point de vue éthique, nous ne combattons pas les terroristes avec des méthodes terroristes ni les dictatures avec des méthodes dictatoriales, à moins que nous ne voulions devenir comme nos adversaires. D’un point de vue pragmatique, les guerres menées selon des principes éthiques conduisent à une paix plus durable, à des équilibres plus stables.
Entretien
Cory Doctorow et la théorie de l’enshittification : pourquoi la technologie ne peut qu’empirer
par Bruno Ruffilli
Étant donné que l’éthique de l’IA dans la défense est une étape nécessaire, reste à comprendre quelle éthique est nécessaire. L’adoption généralisée de l’IA est arrivée ici plus tard que dans d’autres secteurs, comme la médecine. C’est une bonne nouvelle, car nous pouvons tirer des leçons de ces domaines. Par exemple, ces dernières années, les forces de défense américaines, anglaises, françaises et l’OTAN ont établi des principes éthiques pour l’IA élaborés en prenant en compte des enjeux abordés dans les domaines civils, comme la transparence, le contrôle et la robustesse de cette technologie.
C’est une étape importante, mais insuffisante, pour deux raisons. La première est que les principes adoptés jusqu’à présent sont centrés sur les enjeux du débat sur l’éthique de l’IA mais flous sur les questions de défense. La question sous-jacente ici est de savoir quel est l’impact de l’IA sur les actions coercitives qui nécessitent parfois le recours à la force. Cette combinaison – IA et coercition – n’est pas au centre des principes éthiques élaborés jusqu’à présent. Sans cette focalisation, ces principes risquent d’être aussi utiles qu’un verre d’eau pour éteindre un incendie. La deuxième raison est que les principes doivent être interprétés, équilibrés les uns par rapport aux autres et mis en pratique. Ce processus est compliqué, pour être légitime il nécessite la participation des représentants de toutes les catégories intéressées (parties prenantes) : civils, fournisseurs de technologie, forces de défense. Il doit également être indépendant et transparent afin de pouvoir être contrôlé et amélioré.
Intelligence artificielle
La campagne de désinformation iranienne utilisant ChatGpt
par Pier Luigi Pise
Les forces de défense qui se sont données des principes éthiques sont aujourd’hui confrontées à ce passage à la pratique. Cependant, l’interprétation des principes se fait souvent sans méthodologie claire ou sans l’implication des bons interlocuteurs. Ceci est très problématique, car étant donné le vide réglementaire, les pratiques dérivées des principes risquent de devenir des règles définies en interne, sans processus adéquats, par les mêmes personnes qui utiliseront cette technologie. Un paradoxe : pour l’éviter, il faut beaucoup d’engagement de la part des forces de défense en faveur de la transparence et de l’implication des experts et parties prenantes concernés.
Je crois qu’il est également nécessaire d’amener la défense à une position moins isolée dans le débat public. Le débat sur l’éthique de l’IA dans la défense peut également être utile à cette fin. Au cours des dernières décennies, nous avons appris que le numérique est une force de transformation. Cela a changé la façon dont nous interagissons avec l’environnement, nos sociétés, que nous appelons aujourd’hui numérique. La défense, en particulier la guerre, est également une force de transformation. Lorsque les deux vont de pair, l’éthique est nécessaire pour garantir que ces forces conduisent (ou du moins n’entravent pas le développement) de sociétés ouvertes, démocratiques, justes et pluralistes ; j’espère qu’il sera stable aussi. Sans éthique, la technologie et la défense sont des pulsions aveugles qui, au mieux, nous mènent là où les intérêts commerciaux et géopolitiques l’exigent.
*Professeur ordinaire d’éthique numérique et de technologies de défense, Oxford Internet Institute, Université d’Oxford. Autrice de L’éthique de l’intelligence artificielle dans la défenseOxford University Press, qui sera publié en Italie par Raffaello Cortina.
#Lépée #lalgorithme #pourquoi #une #éthique #lIA #est #nécessaire #temps #guerre
1736237372
Connexion sociale
Pour l’inscription, nous avons besoin d’informations supplémentaires sur vous.
{* #socialRegistrationForm *} {* firstName *} {* lastName *} {* emailAddress *} {* displayName *} {* mobile *} {* addressCity *}
{* /socialRegistrationForm *}