Nouvelles Du Monde

Une formule mathématique s’attaque à la prise de décision morale complexe en IA

Une formule mathématique s’attaque à la prise de décision morale complexe en IA

Une équipe interdisciplinaire de chercheurs a développé un modèle pour créer des algorithmes qui intègrent plus efficacement les directives éthiques dans les programmes de prise de décision d’intelligence artificielle (IA). Le projet s’est concentré spécifiquement sur les technologies dans lesquelles les humains interagissent avec les programmes d’IA, tels que les assistants virtuels ou les « carebots » utilisés dans les établissements de santé.

“Des technologies comme les carebots sont censées aider à assurer la sécurité et le confort des patients hospitalisés, des personnes âgées et d’autres personnes qui ont besoin d’un suivi de santé ou d’une assistance physique”, déclare Veljko Dubljević, auteur correspondant d’un article sur le travail et professeur agrégé en sciences. , programme Technology & Society à la North Carolina State University. « Concrètement, cela signifie que ces technologies seront placées dans des situations où elles doivent porter des jugements éthiques.

« Par exemple, disons qu’un carebot se trouve dans un environnement où deux personnes ont besoin d’une assistance médicale. Un patient est inconscient mais nécessite des soins urgents, tandis que le deuxième patient a un besoin moins urgent mais exige que le robot de soins le traite en premier. Comment le carebot décide-t-il quel patient est assisté en premier ? Le carebot doit-il même traiter un patient inconscient et donc incapable de consentir à recevoir le traitement ?

“Les efforts précédents pour intégrer la prise de décision éthique dans les programmes d’IA avaient une portée limitée et se concentraient sur le raisonnement utilitaire, qui néglige la complexité de la prise de décision morale humaine”, déclare Dubljević. “Notre travail aborde ce problème et, même si j’ai utilisé les carebots comme exemple, il s’applique à un large éventail de technologies d’association homme-IA.”

Lire aussi  Pourquoi l'espace extra-atmosphérique apparaît-il en noir foncé, même s'il y a beaucoup d'étoiles ? Voici l'explication

La prise de décision utilitaire se concentre sur les résultats et les conséquences. Mais lorsque les humains émettent des jugements moraux, ils tiennent également compte de deux autres facteurs.

Le premier facteur est l’intention d’une action donnée et le caractère de l’agent exécutant l’action. En d’autres termes, qui accomplit une action donnée et que cherche-t-il à accomplir ? Est-ce bienveillant ou malveillant ? Le deuxième facteur est l’action elle-même. Par exemple, les gens ont tendance à considérer certaines actions, comme le mensonge, comme intrinsèquement mauvaises.

Et tous ces facteurs interagissent les uns avec les autres. Par exemple, nous pouvons convenir que mentir est mauvais, mais si une infirmière ment à un patient qui fait des demandes odieuses afin de donner la priorité au traitement d’un deuxième patient ayant un besoin plus urgent, la plupart des gens considéreraient cela comme moralement acceptable.

Pour répondre à la complexité de la prise de décision morale, les chercheurs ont développé une formule mathématique et une série connexe d’arbres de décision qui peuvent être incorporés dans les programmes d’IA. Ces outils s’appuient sur quelque chose appelé le modèle agent, acte et conséquence (ADC), qui a été développé par Dubljević et ses collègues pour refléter la façon dont les gens prennent des décisions éthiques complexes dans le monde réel.

Lire aussi  Le vaisseau spatial réutilisable 'SUZY' peut lancer des missions spatiales européennes

“Notre objectif ici était de traduire le modèle ADC dans un format qui le rend viable à intégrer dans la programmation de l’IA”, déclare Dubljević. « Nous ne disons pas seulement que ce cadre éthique fonctionnerait bien pour l’IA, nous le présentons dans un langage accessible dans un contexte informatique.

“Avec l’essor des technologies de l’IA et de la robotique, la société a besoin de tels efforts de collaboration entre les éthiciens et les ingénieurs. Notre avenir en dépend.”

Le papier, “Éthique dans l’équipe humain-IA : principes et perspectives», est publié en libre accès dans la revue IA et éthique. L’article a été co-écrit par Michael Pflanzer et Zachary Traylor, Ph.D. étudiants à NC State; Chang Nam, professeur au département d’ingénierie industrielle et des systèmes Edward P. Fitts de NC State; et Joseph Lyons du Laboratoire de recherche de l’Air Force.

Le travail a été réalisé avec le soutien de la National Science Foundation, sous le numéro de subvention 2043612; et l’Institut national pour la sécurité et la santé au travail.

-navire-

Remarque aux rédacteurs : Le résumé de l’étude suit.

“Ethique dans l’association homme-IA : principes et perspectives”

Lire aussi  Déclaration de Jennifer Hermoso devant le parquet concernant le baiser non consensuel de Luis Rubiales

Auteurs: Michael Pflanzer, Zachary Traylor, Veljko Dubljević et Chang S. Nam, North Carolina State University ; Joseph B. Lyons, Laboratoire de recherche de l’armée de l’air

Publié: 20 sept., IA et éthique

EST CE QUE JE: 10.1007 / s43681-022-00214-z

Résumé: Les considérations éthiques sont le tissu de la société et elles favorisent la coopération, l’aide et le sacrifice pour le plus grand bien. Les progrès de l’IA créent un besoin accru d’examiner les considérations éthiques impliquant le développement et la mise en œuvre de tels systèmes. L’intégration de l’éthique dans les programmes basés sur l’intelligence artificielle est cruciale pour prévenir les résultats négatifs, tels que les atteintes à la vie privée et la prise de décision biaisée. L’association homme-IA (HAIT) présente des défis supplémentaires, car les principes éthiques et les théories morales qui les justifient ne sont pas encore calculables par les machines. À cet effet, des modèles de jugements humains et de prise de décision, tels que le modèle agent-acte-conséquence (ADC), seront cruciaux pour informer les fonctions d’orientation éthique des coéquipiers de l’IA et pour clarifier comment et pourquoi les humains (dé)confiance aux machines. . Le présent article examinera le modèle ADC tel qu’il est appliqué au contexte de HAIT, et les défis associés à l’utilisation de considérations éthiques centrées sur l’humain lorsqu’elles sont appliquées à un contexte d’IA.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT