OpenAI a révoqué l’accès à l’API pour un développeur qui utilisait son API en temps réel pour alimenter un système de fusil autonome. Le projet, qui impliquait une tourelle robotique équipée d’un fusil, pouvait interpréter des commandes verbales et exécuter des actions de tir simulées.
L’incident souligne les inquiétudes croissantes concernant l’utilisation abusive potentielle de l’intelligence artificielle dans le développement d’armes autonomes, soulevant des questions sur l’éthique et la sécurité de l’IA.
Le développeur, connu en ligne sous le nom de « STS Innovations SARL » des vidéos partagées du système en ligne, démontrant ses fonctionnalités. Dans un clip, le développeur a émis la commande : “ChatGPT, nous sommes attaqués de l’avant gauche et de l’avant droit”, à quoi la tourelle a immédiatement répondu, tournant et tirant à blanc dans des directions spécifiées.
Simulation de visée/tir avec laser #robotique #électronique
Une voix synthétisée ajoutée, “Si vous avez besoin d’aide supplémentaire, faites-le-moi savoir.” La démonstration effrayante a montré comment les outils d’IA grand public peuvent être facilement adaptés à des utilisations potentiellement dangereuses.
Mise à jour du système de suivi #robotique #vision #électronique
Application rapide des politiques d’OpenAI
OpenAI, connu pour ses politiques strictes contre l’utilisation de sa technologie à des fins d’armement, a réagi rapidement. Un porte-parole dit le futurisme, “Nous avons identifié de manière proactive cette violation de nos politiques et avons informé le développeur de cesser cette activité avant de recevoir votre demande.”
L’entreprise a souligné son interdiction d’utiliser ses outils pour créer ou exploiter des armes ou automatiser des systèmes susceptibles de présenter des risques pour la sécurité des personnes.
Système de gestion du recul, démo rapide #robotique #électronique #cnc
L’API Realtime, un outil conçu pour les applications interactives, a permis au développeur de transformer les commandes en langage naturel en entrées exploitables pour la tourelle robotique.
Bien que l’API soit destinée à des cas d’utilisation bénéfiques, tels que l’amélioration de l’accessibilité ou l’amélioration des interactions avec les clients, cette utilisation abusive démontre les défis liés à la réglementation des technologies à double usage.
Implications plus larges pour l’IA et la militarisation
Cette affaire a relancé les débats sur l’éthique des armes autonomes. Ces systèmes, capables de sélectionner et d’engager des cibles sans surveillance humaine, posent des défis juridiques et moraux complexes.
Les Nations Unies plaident depuis longtemps en faveur d’une réglementation plus stricte de l’IA en temps de guerre, avertissant que les systèmes autonomes pourraient violer les lois internationales et diminuer la responsabilité.
UN Washington Post rapport récemment exemples troublants détaillés de déploiement de l’IA dans des opérations militairesy compris des affirmations selon lesquelles Israël aurait utilisé l’IA pour sélectionner des cibles de bombardement.
Le rapport notait, « À certains moments, la seule corroboration requise était que la cible était un homme. » De tels cas mettent en évidence les risques liés au recours à l’IA pour prendre des décisions de vie ou de mort et le potentiel de violence aveugle.
Le rôle d’OpenAI dans les technologies de défense
Alors qu’OpenAI applique des politiques interdisant la militarisation, son partenariat avec Anduril Industries, une société spécialisée dans les solutions de défense basées sur l’IA, soulève des questions sur sa position.
La collaboration vise à améliorer le renseignement sur le champ de bataille et les systèmes de défense des drones. OpenAI décrit ces efforts comme défensifs, mais les critiques soutiennent qu’ils contribuent à une militarisation plus large des technologies d’IA.
Le secteur américain de la défense, soutenu par un budget annuel proche de 1 000 milliards de dollars, s’appuie de plus en plus sur des technologies avancées pour acquérir un avantage stratégique. Cette intersection croissante entre les entreprises d’IA et les applications militaires met en évidence les défis liés à l’équilibre entre l’innovation technologique et les considérations éthiques.
Risques liés à l’armement DIY et à l’accessibilité
La facilité avec laquelle les individus peuvent abuser des outils d’IA et d’autres technologies comme l’impression 3D aggrave le problème. Les forces de l’ordre ont déjà été confrontées à des cas de militarisation DIY, comme les actions présumées de Luigi Mangione, qui aurait utilisé des pièces imprimées en 3D pour assembler des armes à feu. Ces technologies réduisent les obstacles qui empêchent les individus de créer des systèmes autonomes au potentiel mortel.
Le projet de STS 3D démontre comment les outils d’IA accessibles peuvent être adaptés à des fins imprévues. L’action décisive d’OpenAI dans ce cas montre son engagement à prévenir les abus, mais elle souligne également la difficulté de contrôler pleinement la manière dont ses technologies sont déployées une fois qu’elles entrent dans le domaine public.
L’incident soulève des questions plus larges sur la gouvernance des technologies d’IA. Les partisans de la réglementation soulignent la nécessité de normes mondiales claires pour garantir que le développement de l’IA est conforme aux principes éthiques. Toutefois, parvenir à un consensus entre des nations ayant des intérêts et des priorités divergents reste une tâche ardue.
#OpenAI #supprime #développeur #qui #construit #fusil #sentinelle #robotique #alimenté #par #ChatGPT