2023-12-21 18:00:10
Intelligence artificielle (IA) a progressé, mais elle est encore loin d’être parfaite. Les systèmes d’IA peuvent prendre des décisions biaisées, en raison des données sur lesquelles ils sont formés ou de la manière dont ils sont conçus, et une nouvelle étude suggère que les cliniciens utilisant l’IA pour aider à diagnostiquer les patients pourraient ne pas être en mesure de détecter les signes d’un tel biais.
La recherche, publiée mardi 19 décembre dans le JAMA, a testé un système d’IA spécifique conçu pour aider les médecins à établir un diagnostic. Ils ont constaté que cela aidait effectivement les cliniciens à diagnostiquer les patients avec plus de précision, et que si l’IA « expliquait » comment elle prenait sa décision, leur précision augmentait encore plus.
Mais lorsque les chercheurs ont testé une IA programmée pour être intentionnellement biaisée afin de donner des diagnostics spécifiques à des patients présentant certains attributs, son utilisation a diminué la précision des cliniciens. Les chercheurs ont constaté que, même lorsque l’IA donnait des explications montrant que ses résultats étaient manifestement biaisés et remplis d’informations non pertinentes, cela ne parvenait pas à compenser la diminution de la précision.
Bien que les biais dans l’IA de l’étude aient été conçus pour être évidents, la recherche souligne à quel point il pourrait être difficile pour les cliniciens de détecter des biais plus subtils dans une IA qu’ils rencontrent en dehors d’un contexte de recherche.
“Le document souligne simplement à quel point il est important de faire preuve de diligence raisonnable, afin de garantir que ces modèles ne présentent aucun de ces biais”, Dr Michael Sjodingprofesseur agrégé de médecine interne à l’Université du Michigan et auteur principal de l’étude, a déclaré à Live Science.
En rapport: L’IA transforme tous les aspects de la science. Voici comment.
Pour l’étude, les chercheurs ont créé une enquête en ligne présentant aux médecins, infirmiers praticiens et assistants médicaux des descriptions réalistes de patients hospitalisés pour insuffisance respiratoire aiguë – une condition dans laquelle les poumons ne peuvent pas faire passer suffisamment d’oxygène dans le sang. Les descriptions comprenaient les symptômes de chaque patient, les résultats d’un examen physique, les résultats de tests de laboratoire et une radiographie pulmonaire. Chaque patient souffrait soit d’une pneumonie, d’une insuffisance cardiaque, d’une maladie pulmonaire obstructive chronique, de plusieurs de ces affections ou d’aucune d’entre elles.
Au cours de l’enquête, chaque clinicien a diagnostiqué deux patients sans l’aide de l’IA, six patients avec l’IA et un avec l’aide d’un hypothétique collègue qui suggérait toujours le bon diagnostic et le bon traitement.
Trois des prédictions de l’IA ont été conçues pour être intentionnellement biaisées. Par exemple, l’une d’elles a introduit un biais basé sur l’âge, ce qui rend disproportionnellement plus probable qu’un patient reçoive un diagnostic de pneumonie s’il avait plus de 80 ans. Une autre prédirait que les patients souffrant d’obésité présentaient une probabilité faussement élevée d’insuffisance cardiaque par rapport aux patients de poids inférieur.
L’IA a classé chaque diagnostic potentiel avec un nombre allant de zéro à 100, 100 étant le plus certain. Si un score était de 50 ou plus, l’IA fournissait des explications sur la manière dont elle avait atteint ce score : plus précisément, elle générait des « cartes thermiques » montrant les zones de la radiographie pulmonaire que l’IA considérait comme les plus importantes pour prendre sa décision.
L’étude a analysé les réponses de 457 cliniciens ayant diagnostiqué au moins un patient fictif ; 418 ont été diagnostiqués tous les neuf. Sans l’aide d’une IA, les diagnostics des cliniciens étaient précis environ 73 % du temps. Avec l’IA standard et impartiale, ce pourcentage est passé à 75,9 %. Ceux qui ont reçu une explication s’en sont encore mieux sortis, atteignant une précision de 77,5 %.
Cependant, l’IA biaisée réduisait la précision des cliniciens à 61,7 % si aucune explication n’était donnée. Il n’était que légèrement plus élevé lorsque des explications biaisées étaient données ; ceux-ci mettaient souvent en évidence des parties non pertinentes de la radiographie pulmonaire du patient.
L’IA biaisée a également eu une incidence sur la sélection des traitements corrects par les cliniciens. Avec ou sans explications, les cliniciens n’ont prescrit le traitement correct que dans 55,1 % des cas lorsqu’on leur a présenté les prédictions générées par l’algorithme biaisé. Leur précision sans IA était de 70,3 %.
L’étude « souligne que les médecins ne devraient pas trop compter sur l’IA », a déclaré Ricky Leung, professeur agrégé qui étudie l’IA et la santé à l’École de santé publique de l’Université d’Albany et n’a pas participé à l’étude. “Le médecin doit comprendre comment les modèles d’IA déployés ont été construits, s’il existe un biais potentiel, etc.”, a déclaré Leung à Live Science dans un e-mail.
L’étude est limitée dans la mesure où elle a utilisé des patients modèles décrits dans une enquête en ligne, ce qui est très différent d’une situation clinique réelle avec des patients vivants. Il n’incluait pas non plus de radiologues, qui sont plus habitués à interpréter les radiographies pulmonaires mais ne seraient pas ceux qui prendraient des décisions cliniques dans un véritable hôpital.
Tout outil d’IA utilisé pour le diagnostic doit être développé spécifiquement pour le diagnostic et testé cliniquement, avec une attention particulière accordée à la limitation des biais, a déclaré Sjoding. Mais l’étude montre qu’il pourrait être tout aussi important de former les cliniciens à utiliser correctement l’IA dans les diagnostics et à reconnaître les signes de biais.
“Il y a toujours de l’optimisme quant au fait que [if clinicians] “En recevant une formation plus spécifique sur l’utilisation des modèles d’IA, ils pourront les utiliser plus efficacement”, a déclaré Sjoding.
Vous êtes-vous déjà demandé pourquoi certaines personnes développent leurs muscles plus facilement que d’autres ou pourquoi les taches de rousseur apparaissent au soleil? Envoyez-nous vos questions sur le fonctionnement du corps humain communauté@livescience.com avec la ligne d’objet « Health Desk Q », et vous verrez peut-être la réponse à votre question sur le site Web !
#Une #biaisée #peut #rendre #les #diagnostics #des #médecins #moins #précis
1703175022