Murderbot est une « unité de sécurité » sensible conçue par ses seigneurs avides de sociétés de liaison pour protéger ses clients à tout prix, y compris en tuant toute personne considérée comme une menace ou elle-même, si nécessaire. Les Murder Bot Diaries de Martha Well racontent l’histoire du boudeur et cynique Murderbot après avoir piraté son « module de gouverneur » sans cœur et totalement contraire à l’éthique pour se libérer des rênes de « The Company », et des voyages interstellaires de Murderbot alors qu’il découvre son humanité. Murderbot est peut-être un cas extrême et fictif, mais il illustre les dilemmes moraux présentés par l’IA.
3 Voir la galerie
L’intelligence artificielle (IA) révolutionne la science et la technologie, apportant des changements positifs dans toutes les facettes de nos vies. La triste réalité est qu’elle est également utilisée de la pire manière possible à des fins criminelles et terroristes. Cependant, le plus inquiétant est peut-être la manière dont l’IA, développée pour le « bien », involontairement, au moyen de préjugés intrinsèques, finit par produire des résultats contraires à l’éthique, parfois avec les conséquences les plus graves.
Les préjugés et les préjugés font partie de la nature humaine et sont répandus dans toutes les facettes du gouvernement, des entreprises, des médias… et dans toutes les facettes de la société. Si elle n’est pas maîtrisée, l’IA a le potentiel de dénoncer des pratiques déloyales, d’approfondir les préjugés et d’amplifier les inégalités dans tous les secteurs qu’elle touche.
En supposant, mais sans exiger, une connaissance théorique de l’IA, de l’apprentissage automatique et du Deep Learning, cette série de deux articles plonge profondément dans l’océan sans fond de l’IA contraire à l’éthique, en mettant l’accent sur les préjugés. La première partie passe en revue les cas les plus courants d’IA contraire à l’éthique, en examinant ses recoins les plus sombres. Le prochain article passera à notre sujet principal, les préjugés. Nous verrons des exemples de biais dans l’IA, comprendre comment ils se produisent et examinerons ce qui est fait pour tenter de freiner le potentiel de catastrophe inhérent à une IA biaisée.
Utilisation contraire à l’éthique : comment les technologies d’IA existantes sont utilisées pour tout, des délits mineurs au crime organisé et au terrorisme odieux, avec un examen plus approfondi des deepfakes.
Erreurs nuisibles dans la programmation de l’IA – Des cas juridiques fabriqués de toutes pièces fournis par ChatGPT aux estimations immobilières trompeuses, les erreurs dans l’IA peuvent avoir des conséquences désastreuses.
L’IA subvertie – L’IA peut être piratée, souvent plus subtilement que les systèmes informatiques « classiques », ce qui rend les piratages encore plus difficiles à détecter. Une fois piratée, envoyer des IA dans la mauvaise direction peut suffire à faire des ravages.
IA criminelle – Très simplement, les systèmes d’IA développés pour aider à commettre ou à perpétrer des crimes ou des actes de terrorisme. Pire encore, les systèmes d’IA sont conçus pour créer de nouvelles IA criminelles.
Biais – Lorsque les systèmes d’IA supposent des biais, que ce soit par la logique (algorithmes) ou par les données, conduisant à des résultats biaisés. Ce sujet sera longuement abordé dans la deuxième partie de la série.
Avant de continuer, une petite parenthèse pour évoquer ce que nous n’évoquerons pas, à savoir les plus grandes questions éthiques de toutes, celles qui entourent le thème de l’intelligence artificielle générale, ou AGI. Amazon Web Services fournit une bonne explication de l’AGI : « L’intelligence générale artificielle (AGI) est un domaine de recherche théorique sur l’IA qui tente de créer des logiciels dotés d’une intelligence semblable à celle d’un humain et dotés de la capacité de s’auto-apprendre. L’objectif est que le logiciel soit capable d’effectuer des tâches pour lesquelles il n’est pas nécessairement formé ou développé. » Des questions existentielles telles que « Comment pouvons-nous garantir qu’AGI reste sous contrôle humain et s’aligne sur les valeurs humaines ? » ; « Comment définissons-nous ces valeurs ? », « Comment pouvons-nous garantir que les systèmes AGI sont exempts de préjugés et favorisent l’équité ? », « Comment pouvons-nous empêcher l’AGI d’être utilisée de manière malveillante ou de causer des dommages involontaires ? sont au cœur de tout développement de l’IA, sont largement discutés et sortent donc du cadre de cet article.
Tout d’abord, un peu de contexte. Tout comme il existe une multitude de méthodes et d’algorithmes sous-jacents à l’IA et, de même, les applications de l’IA sont illimitées, l’IA présente également une gamme interminable d’énigmes éthiques liées à la vie privée, à la sécurité, à la transparence, aux ressources humaines, au monde universitaire, à la finance, etc. sur. Inutile de dire que chacun de ces éléments est lié à un ou plusieurs cas d’utilisations contraires à l’éthique de l’IA ou lorsque l’IA elle-même est intrinsèquement contraire à l’éthique.
Ignorant les éventualités du mal, des super-IA dominatrices du monde, de type Terminator ou Matrix, et la grande zone grise des comportements et des fonctions de vertu discutable, l’IA contraire à l’éthique peut être regroupée en grandes catégories comme dans ce qui suit, en aucun cas exhaustives. liste des classements. Nous aborderons brièvement ces catégories car chacune est un immense sujet en soi, représentant tout un domaine d’étude.
3 Voir la galerie
Les applications existantes de l’IA peuvent et sont utilisées pour des crimes et délits mineurs, ainsi que pour les crimes les plus flagrants et la terreur indescriptible. Un exemple parlant est le monde trouble et effrayant des deepfakes. À l’heure actuelle, la plupart d’entre nous connaissent un certain niveau de familiarité avec le terme, mais juste au cas où, voici la définition du dictionnaire Merriam-Webster :
Deepfake : une image ou un enregistrement qui a été modifié et manipulé de manière convaincante pour donner une fausse image d’une personne comme faisant ou disant quelque chose qui n’a pas été réellement fait ou dit.
À mesure que l’IA sous-jacente devient plus intelligente, les deepfakes s’améliorent de jour en jour et ont déjà été utilisés à des fins diverses, depuis l’intimidation et le vol jusqu’à la diffamation, en passant par l’influence des élections et la perpétration du terrorisme. Des exemples récents incluent de fausses images sexuellement explicites de Taylor Swift qui sont devenues virales sur X, un faux appel robotique du président Joe Biden généré par l’IA qui a encouragé les électeurs à ne pas participer aux primaires du New Hampshire, et dans ce qui est devenu connu sous le nom de Pallywood, le Hamas a a publié des rendus réalistes, dont beaucoup sont des deepfakes générés par l’IA, de faux attentats à la bombe et de victimes pour semer la confusion dans l’opinion publique et renforcer les efforts de propagande.
Dans le cas de ces derniers, la plupart des contrefaçons sont rapidement découvertes, mais en raison de leur diffusion rapide sur les réseaux sociaux et les médias conventionnels, des dégâts considérables et persistants sont causés avant que les contrefaçons ne soient révélées. De plus, comme le mentionne un article du New York Times (NYT), « la simple possibilité que du contenu d’IA puisse circuler conduit les gens à rejeter les images, vidéos et sons authentiques comme étant inauthentiques. », par exemple des masses ignorantes qui ne croient pas aux images révoltantes et très réelles du massacre du 7 octobre prises par les victimes et les terroristes eux-mêmes.
Les trompettes menaçantes montent lentement jusqu’à un crescendo dans la chanson d’ouverture musicale « Also sprach Zarathustra » de 2001 : Une odessée de l’espace ? Vous souvenez-vous de HAL, ou « Heuristically programmé ALgorithmic Computer », l’IA du livre/film incontournable qui s’en prend à ses astronautes, en assassinant quatre d’entre eux avant d’être elle-même « tuée » par l’unique survivant ?
3 Voir la galerie
Accédez à Amazon et vous recevrez une liste de suggestions générées par l’IA en fonction de vos achats, de vos recherches, de votre comportement de navigation, etc. Ouvrez la plateforme de médias sociaux de votre choix et une IA adaptera les publicités et l’ensemble de votre expérience à vos préférences en s’appuyant sur son analyse de vos sessions précédentes. La liste des domaines dans lesquels l’IA est déjà intégrée dans notre vie quotidienne est longue.
Vous vous demandez peut-être à ce stade : « OK, la science-fiction mise à part, quel est le problème si une IA de recommandation a le hoquet et propose un club soda au lieu de clubs de golf ? » Et vous auriez raison, sauf bien sûr que ces dernières sont des erreurs relativement inoffensives commises dans des applications moins conséquentes de l’IA. Dans la pratique, les erreurs de l’IA peuvent avoir des conséquences commerciales, économiques, sociales, politiques et juridiques désastreuses, pour n’en citer que quelques-unes. Et plus la dépendance est grande, plus le risque de désastre est grand, sans parler d’alimenter la méfiance à l’égard de l’IA.
Prenons les exemples suivants : « ChatGPT hallucine les affaires judiciaires » (magazine en ligne CIO) – En mai 2023, l’avocat Steven A. Schwartz a intenté une action en justice contre la compagnie aérienne colombienne Avianca au nom de son client, Roberto Mata. Schwartz a utilisé ChatGPT pour rechercher des cas antérieurs à l’appui du procès. Au cours du procès, il a été découvert que ChatGPT avait fourni à Schwartz 5 cas fictifs. Le juge a fini par imposer une amende de 5 000 $ à Schwartz et à son partenaire, Peter LoDuca, et a ensuite rejeté complètement la poursuite.
#Intelligence #artificielle #bon #biaisé #contraire #léthique