L’IA en médecine se heurte aux préjugés raciaux

L’IA en médecine se heurte aux préjugés raciaux

2023-07-24 15:57:08

Le sujet des disparités raciales n’est pas nouveau en matière d’intelligence artificielle. Ce dernier est utilisé dans divers contextes de soins de santé, de l’analyse d’images médicales à l’assistance lors d’interventions chirurgicales. Si l’IA peut parfois surpasser les médecins qualifiés, ses capacités ne sont pas toujours mises au service de la parité. Par exemple, l’année dernière, une étude publiée dans Lancet Santé numérique, ont affirmé que les modèles d’IA pouvaient prédire avec précision la race d’un individu dans différents types d’images radiographiques, une tâche impossible pour les experts humains. Un avertissement à ceux qui, peut-être pas tout à fait à tort, pensent à un futur dans lequel les logiciels, au-delà de ce qu’ils “voient”, pourront obtenir des informations complémentaires sur les individus, les classer et créer des modèles catégoriels sans leur consentement. Un scénario, celui redouté par le Lancet, susceptible d’exacerber potentiellement les disparités raciales dans le domaine médical.

Les exemples de biais dans le traitement du langage naturel sont innombrables. Les scientifiques de la AVEC, utilisant à la fois des ensembles de données publics et privés, a confirmé ce qui précède. À l’aide de données d’imagerie provenant de radiographies pulmonaires, de radiographies des extrémités, de tomodensitogrammes thoraciques et de mammographies, l’équipe a formé un modèle d’apprentissage en profondeur pour identifier la race des patients comme blanche, noire ou asiatique, même si les images elles-mêmes ne contenaient aucune mention explicite d’où elles venaient. Comme le rappelle un récent article de Science, l’IA peut prédire l’âge et le sexe des personnes simplement en se basant sur la réponse échographique lors d’un examen cardiaque. Le rythme cardiaque varie d’âge en âge et en fonction du sexe, donc créer une gamme assez précise d’informations de ce type est simple, presque trivial pour un logiciel qui traite des millions de points de données par minute (et qui ne comprend pas du tout les implications éthiques des disparités raciales). La question n’est pas tant technique qu’éthique : aurons-nous un jour l’interface avec un médecin en morceaux plutôt qu’en chair et en os qui nous dira comment s’en sortir ? Probablement oui, mais les enjeux critiques, si on veut les définir ainsi, vont encore plus loin.

Les clusters (im)partiaux accentuent les disparités raciales

Une fois qu’une plateforme d’intelligence artificielle a créé des clusters, basés sur la race, de patients de même tranche d’âge, sexe, origine sociale, qu’est-ce qui empêchera les compagnies d’assurance de créer des offres ad-hoc, amélioratives ou péjoratives, selon les cas ? En résumé : comment éviter les disparités raciales et sociales dans les mérites des soins de santé, des soins médicaux et de la sécurité sociale ?

“La capacité de l’IA à prédire des variables de santé pour une race – expliquent James Zou, Judy Wawira Gichoya, Daniel E. Ho et Ziad Obermeyer dans Science – à partir d’images médicales peut être utilisée pour créer des disparités dans le système de santé”.

Les préjugés sont alors au coin de la rue. Sans trop regarder en arrière, pensez simplement à ce qui s’est passé avec Covid. Les IRM des patients hospitalisés pour une pneumonie bilatérale ont montré les signes clairs de la maladie sur leur corps. Si un jour on nourrissait toutes ces découvertes à une IA, elle serait capable de créer des catégories de sujets plus exposés au risque de pneumonie Covid que les autres. En tenant compte de quelles autres variables ? Si des facteurs apparemment secondaires tels que : le tabagisme, les problèmes antérieurs, la familiarité et d’autres paramètres décisifs n’étaient pas inclus, il n’y aurait pas d'”intelligence” qui compte, mais seulement un tas d’informations cataloguées de manière appropriée. Prédire quelque chose en fonction de la race, ce n’est pas utiliser les données dans leur forme holistique, avec un souci du détail et du contexte dans lequel elles s’insèrent, mais uniquement comme un simple “jeu” d’agrégation systémique, sans grande valeur. Aux États-Unis, où l’application de la technologie dans le domaine médical est beaucoup plus rapide qu’en Italie, quelque chose bouge, bien que lentement, dans le but de mieux réglementer les implications de l’IA et de contenir (et d’éviter) les disparités raciales et autres préjugés et inégalités.

Les États-Unis sont en marche

Des groupes de défense des droits civiques ont convaincu la Maison Blanche de mettre à jour la norme de déclaration raciale qui remontait à 1997 pour désagréger les données par sous-groupes (par exemple, les Américains d’origine vietnamienne, les Américains d’origine asiatique). Cela pourrait prendre des années pour que ce processus se matérialise dans les données sur la santé, et entre-temps, les imputations de l’IA ont le potentiel d’augmenter les disparités raciales entre les sous-groupes granulaires et plus proches.

Il faut dire qu’à ce jour, les variables raciales ne sont pas un élément déterminé en médecine. Mais ils pourraient le devenir, d’autant plus que des outils comme l’IA générative deviennent plus accessibles au grand public. Comprendre quelles caractéristiques l’IA utilise mécaniquement pour prédire les variables raciales sera alors important pour rendre les données et les algorithmes impartiaux. Il faudra aussi l’engagement de l’homme, qui devra réduire les préjugés dans la façon dont il “utilise” les données devant lui en corrélation avec la race du patient devant lui. Une tâche potentiellement plus difficile que de réduire les biais dans les algorithmes eux-mêmes.

Reproduction réservée © (Article protégé par le droit d’auteur)



#LIA #médecine #heurte #aux #préjugés #raciaux
1690266882

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.