Pour réguler efficacement l’intelligence artificielle, nous devons lutter contre le capacitisme

Jamillah Knowles & Reset.Tech Australia / De meilleures images de l’IA / Personnes au téléphone (portrait) / CC-BY 4.0

Dans toutes les discussions sur la manière dont l’intelligence artificielle va changer la société, une question importante passe sous silence : qu’est-ce que cela signifie lorsque nous sommes plus disposés à croire qu’un ordinateur peut communiquer qu’une personne qui le fait de manière atypique ? Bien que l’IA puisse être très prometteuse, nous continuons de rejeter l’intellect humain qui n’est pas conforme à nos attentes quant à ce à quoi ressemble l’intelligence. À moins que nous ne luttions contre le capacitisme dans notre compréhension collective de l’intelligence et que nous ne travaillions avec la communauté des personnes handicapées pour façonner l’IA, les technologies émergentes créeront des dommages qu’une réflexion plus critique aurait pu éviter.

Il existe une longue histoire d’assimilation de la communication à l’intelligence, souvent d’une manière qui désavantage les groupes marginalisés. Les dialectes et l’argot, surtout lorsqu’ils sont racialisés, sont souvent décrits comme un langage « incorrect » et supposés signifier qu’une personne est moins intelligente et moins instruite. Les différences et les obstacles à la parole sont traités comme des marqueurs de l’intellect, ou de son manque, par exemple lorsqu’un bégaiement est interprété comme le signe que les pensées d’une personne ne sont pas complètement formées. Les fautes d’orthographe, les erreurs grammaticales et l’écriture non standard, même lorsqu’elles résultent d’un handicap spécifique tel que la dyslexie, sont souvent considérées comme la preuve d’un écrivain moins intelligent et utilisées comme une raison pour ignorer les idées présentées. Le plus flagrant est que les personnes qui ne peuvent pas parler sont généralement supposées n’avoir aucune pensée à communiquer, et les personnes qui utilisent la communication augmentée et alternative (CAA) plutôt que la parole voient souvent leur communication traitée avec dérision et suspicion.

Compte tenu de cette histoire, notre volonté d’accepter la production d’écritures de ChatGPT conformes à certaines attentes comme un signe d’intelligence en dit beaucoup plus sur la façon dont nous définissons l’intelligence que sur le progrès technologique. Il n’existe pas de capacité humaine unique qui constitue l’intelligence, et le terme a été compris de différentes manières au cours de l’histoire. Cependant, le développement des tests de QI à la fin du 19e et au début du 20e siècle a favorisé une compréhension de l’intelligence comme un trait mesurable décrit par un score numérique lors d’une évaluation standardisée. Ces tests et leurs inventeurs ont créé une version de l’intelligence facile à mesurer et à comparer, mais également déformée par des préjugés raciaux, culturels et socio-économiques – et qui pourrait être utilisée pour justifier la discrimination contre certains groupes de personnes dont les scores les qualifiaient de « « déficient ».

Comme les tests de QI, ChatGPT et d’autres grands modèles de langage mettent l’accent sur la forme de l’intelligence plutôt que sur sa fonction. Ces outils d’IA semblent intelligents car ils imitent efficacement ce que nous attendons d’une communication « intelligente ». Cependant, répéter un contenu qui correspond à nos idées sur la façon dont les gens « intelligents » écrivent n’est pas la même chose qu’une véritable compréhension basée sur un engagement profond avec les idées. Dans leurs tentatives de produire une écriture intelligente, les grands modèles de langage fabriquent systématiquement des détails et génèrent de pures informations erronées, démontrant les risques de supposer qu’un modèle est intelligent en raison de ses performances sur une seule tâche contrainte, comme la production de texte.

Tout cela signifie que non seulement nous ne parvenons pas à développer une IA véritablement intelligente, mais que nous ne parvenons pas non plus à tirer les leçons de l’histoire. À maintes reprises, les personnes handicapées ont été exclues, opprimées et effacées, parfois avec l’aide de technologies qui promettent de les « normaliser ». Pourtant, le handicap fait partie intégrante de l’humanité. Construire un monde plus inclusif et améliorer la capacité des personnes handicapées à exercer leurs droits fondamentaux profite à la société d’une manière que la technologie seule ne pourra jamais apporter. Mais plus encore, les personnes handicapées sont les seules à pouvoir expliquer la différence entre être humain et être considéré comme tel – ce qui est profondément pertinent pour l’IA. Une grande partie du travail que nous devons entreprendre pour garantir que l’IA soit sûre et bénéfique à l’ensemble de la société, et pas seulement aux quelques personnes ayant le pouvoir de façonner son développement et son utilisation, exigera que nous réfléchissions de manière critique à la manière et au moment où nous déléguons des responsabilités. des décisions à enjeux élevés aux processus automatisés, y compris les systèmes d’IA.

Pour ce faire, nous devons être réalistes dans la description de la manière dont l’IA et d’autres technologies algorithmiques produisent des résultats que nous acceptons comme révélateurs d’un travail réfléchi lorsqu’il est effectué par des humains. Mais parfois, cela signifie aussi prendre du recul et réexaminer toutes les façons dont nous excluons actuellement certains humains du droit de vote dans les décisions. Créer une IA sûre, éthique et bénéfique pour l’humanité nécessite de tenir compte de la manière arbitraire dont nous avons défini l’intelligence. Qui de mieux pour montrer la voie que ceux qui connaissent directement les conséquences de telles définitions ?

L’utilisation et la réglementation de l’IA sont plus qu’un problème technique nécessitant des solutions techniques. Ces outils sont créés et utilisés par des humains et reflètent les valeurs et les préjugés humains. Qui plus est, ils témoignent trop souvent du fait que nous considérons les points de vue comme bien raisonnés et du fait que nous sommes parfois prompts à céder le pouvoir à ceux dont la communication est la plus raffinée, quelle que soit la substance des idées qu’ils défendent. . Résoudre les dommages que nous constatons déjà résulter de l’IA ne peut pas se faire uniquement par le biais de logiciels et de codes juridiques. Afin d’utiliser les technologies algorithmiques de manière responsable et d’atténuer les impacts négatifs de la désinformation alimentée par l’IA, nous devons nous attaquer au capacitisme ancré dans nos hypothèses collectives sur ce que signifie être intelligent, communicatif et humain.

#Pour #réguler #efficacement #lintelligence #artificielle #nous #devons #lutter #contre #capacitisme

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.