2024-01-05 07:20:00
La formule mathématique permettant d’enseigner un code d’éthique aux machines comporte trois éléments de base. Et ce n’est pas très différent du cocktail éthique que nous, les gens, manipulons. Action, valeur et norme composent cette triade avec laquelle jouent les chercheurs pour établir les limites qui contrôlent le comportement des intelligences artificielles.
Pour les gens, la valeur équivaut à une sorte de norme sociale communément acceptée : on sait que mentir est un acte moralement répréhensible. Et les normes contribuent à formaliser l’idée de valeur dans un code juridique. “Les règles interdisent, tout comme il est interdit de fumer dans les espaces fermés, mais le courage vous aide également à promouvoir de bonnes actions, comme faire un don ou être gentil”, explique Maite López-Sánchez, chercheuse en IA et professeur à l’Université de Barcelone. qui travaille sur des systèmes pour introduire des principes éthiques dans les systèmes d’intelligence artificielle.
Les gens apprennent ce cadre, qui sert à délimiter notre comportement, au cours du processus de socialisation. Mais dans les machines, tout doit être traduit en nombres et en fonctions mathématiques. L’objectif final est de fournir un ordonnancement des actions. « En fin de compte, les machines sont très intégrées dans la société et finissent par prendre des décisions qui nous affectent en tant que personnes. Il serait souhaitable que ces décisions soient alignées sur ce que nous considérons comme correct, qu’elles soient bien intégrées socialement », estime le chercheur.
López-Sánchez va à l’essentiel pour expliquer la nécessité d’avoir des machines éthiques : « Je peux avoir une voiture autonome et, si je lui donne pour objectif de m’emmener au travail, la voiture emprunterait le chemin le plus efficace ou le plus rapide. . Nous sommes très clairs sur le fait que je veux me mettre au travail, mais je ne veux écraser personne. “Ce ne serait pas moralement juste.” Mais la casuistique va bien au-delà des hypothèses extrêmes. « Il y a de nombreux aspects à prendre en compte pour conduire correctement. Il ne s’agit pas seulement de ne pas enfreindre les règles, mais de bien faire les choses, comme céder le passage à un piéton, maintenir une distance de sécurité ou ne pas être agressif avec le klaxon”, ajoute le chercheur.
L’éthique en matière d’intelligence artificielle sert également à promouvoir l’égalité de traitement. “S’il s’agit d’un système décisionnel pour l’octroi de l’assurance maladie, ce que nous voulons, c’est qu’il soit un algorithme sans biais, qui traite de la même manière toutes les personnes qu’il évalue”, explique López-Sánchez.
Ces dernières années, des biais algorithmiques de toutes sortes sont apparus. Un système développé par Amazon qui sélectionnait les candidats pour un emploi préféré les CV des hommes aux CV des femmes. Il l’a fait parce qu’il s’est formé avec un programme majoritairement masculin et qu’il n’y avait aucun moyen de corriger cet écart. Un autre algorithme, en l’occurrence utilisé par le système de santé aux États-Unis, pénalisé les noirs par rapport aux blancs à gravité clinique égale, de sorte que les Blancs se sont vu attribuer un risque plus élevé et ont donc reçu la priorité en matière de soins médicaux.
De plus, les systèmes autonomes traitent des questions liées à la propriété intellectuelle ou à l’utilisation de données privées. Une formule pour éviter ces déficiences consiste à établir des auto-limitations dans la conception de l’algorithme. Ana Cuevas, professeur dans le domaine de logique et philosophie des sciences à l’Université de Salamanque, défend cette approche proactive : « Nous ne devons pas attendre que les choses se produisent pour analyser les risques qu’elles peuvent présenter, mais plutôt partir du l’hypothèse qu’avant « Pour créer un système d’intelligence artificielle, nous devons réfléchir au type de système que je souhaite créer pour éviter certains résultats indésirables. »
L’éthique en langage machine
Introduire un corpus éthique dans les machines est un travail relativement nouveau. La communauté scientifique l’a abordé principalement d’un point de vue théorique, mais il n’est pas si courant de s’enfoncer dans la boue pour préciser des valeurs chiffrées et des enseignements moraux en ingénierie. Dans le groupe de recherche Sánchez-López, EAUde l’Université de Barcelone, explorent ce domaine de manière expérimentale.
Ces chercheurs relient les concepts de valeur et d’action dans la conception des systèmes. “Nous disposons de fonctions mathématiques qui nous disent que pour une certaine valeur, une certaine action de la machine est considérée comme positive ou négative”, explique López-Sánchez. Ainsi, dans l’exemple de la voiture autonome, une conduite douce sur une route sinueuse sera considérée comme positive compte tenu de la valeur de la sécurité. Cependant, si on l’observe sous le prisme de la valeur de gentillesse envers les autres conducteurs, le véhicule pourrait décider d’augmenter sa vitesse s’il constate qu’il gêne le rythme des autres voitures.
Dans ce cas précis, il y aurait un conflit de valeurs qui serait résolu par une pondération. Auparavant, des préférences sont établies qui indiquent quelles valeurs prédominent. L’ensemble comprend des formules entrelacées, qui doivent également contenir la variable de norme. « Il existe une autre fonction qui stipule qu’une norme promeut une valeur », précise le chercheur. “Et nous avons aussi des fonctions qui observent comment une norme évalue l’action et aussi comment la valeur de ladite action est évaluée.” Il s’agit d’un système complexe dans lequel le feedback est essentiel.
Lorsque López-Sánchez parle d’évaluation, il fait directement référence à l’apprentissage automatique. L’une des façons dont ils apprennent est par le renforcement, comme les gens, nous agissons bien parce que nous sommes récompensés et nous évitons de mal faire parce que nous sommes punis. Ce mécanisme fonctionne également en intelligence artificielle.
« Les récompenses sont des chiffres. Nous donnons les récompenses avec des nombres positifs et nous donnons les punitions avec des nombres négatifs », explique le chercheur du WAI. « Les machines essaient de marquer le plus de points possible. La machine va donc essayer de se comporter si je lui donne des chiffres positifs lorsqu’elle fait les choses correctement. Et si, lorsqu’elle se comporte mal, je la punis et lui retire des points, elle essaiera de ne pas le faire. Comme pour instruire les enfants, il est noté à des fins pédagogiques.
Mais il reste de nombreux problèmes à résoudre. Pour commencer, quelque chose d’aussi simple que de décider quelles valeurs nous voulons entrer dans les machines. « L’éthique évolue de manières très différentes. Dans certains cas, nous devrons faire des calculs utilitaires pour minimiser les risques ou les dommages », explique le professeur Cuevas. « D’autres fois, nous devrons peut-être utiliser des codes déontologiques plus forts, comme établir qu’un système ne peut pas mentir. Chaque système doit intégrer certaines valeurs et pour cela, il doit y avoir un accord communautaire et social.
Dans le laboratoire de López-Sánchez, ils se lancent dans des études sociologiques pour trouver des valeurs communes entre les personnes et entre les différentes cultures. En même temps, ils prennent comme référence des documents internationaux, comme la Déclaration universelle des droits de l’homme de l’ONU. Même s’il y aura des aspects sur lesquels il sera plus difficile de parvenir à un consensus au niveau mondial. C’est ce que pense Cuevas : « Les limites des machines auront leurs limites. L’Union européenne, par exemple, a sa façon de faire et les États-Unis en ont une autre », souligne-t-il, en référence aux différentes approches réglementaires qui existent de chaque côté de l’Atlantique.
Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.
Abonnez-vous pour continuer la lecture
Lire sans limites
_
#Des #machines #éthiques #Comment #enseigner #morale #aux #ordinateurs #traduisant #déontologie #chiffres #Technologie
1704437591