Nouvelles Du Monde

Trop d’IA présente de gros inconvénients pour les médecins – et leurs patients

Trop d’IA présente de gros inconvénients pour les médecins – et leurs patients

L’intelligence artificielle dans les soins médicaux est là pour rester – mais elle peut faire plus de mal que de bien, surtout si ceux qui la mettent en œuvre perdent de vue l’importance essentielle du jugement clinique d’un médecin.

En tant que médecin de soins primaires, mon travail consiste à évaluer et à réévaluer un patient de manière personnalisée et continue, même la meilleure IA ne pourrait jamais atteindre.

Voici un exemple : un de mes patients de 80 ans souffrant d’insuffisance cardiaque chronique a trop bu et trop mangé lors d’une récente croisière dans les Caraïbes et s’est retrouvé à l’hôpital, les poumons remplis de liquide.

Un écho cardiaque a révélé une fraction d’éjection (comment le cœur pompe) de seulement 15 %.

En fait, une étude récente a conclu L’IA aurait peut-être mieux évalué cette fraction d’éjection que le cardiologue qui l’a fait, et cette évaluation jouera clairement un rôle important pour l’IA.

Lire aussi  PAPE FRANÇOIS INTELLIGENCE ARTIFICIELLE | Le pape François met également en garde contre les dangers de l'intelligence artificielle

Mais la prise en charge réelle du patient allait bien au-delà d’un simple numéro.

Et des réévaluations répétées étaient nécessaires pour initier la réponse thérapeutique correcte chaque fois que sa tension artérielle chutait ou qu’il prenait quelques kilos ou devenait légèrement essoufflé.

Aucune IA n’aurait pu le gérer.

Aucune IA n’aurait pu gérer ce patient.

Ce patient particulier n’aimait pas se plaindre, et des années d’expérience m’ont guidé sur la façon de prendre en compte sa personnalité d’une manière qu’aucune IA n’aurait pu envisager.

Si mon patient avait consulté la populaire application AI ChatGPT pour obtenir des réponses rapides en temps réel, bon nombre de ces réponses n’auraient pas eu la souplesse nécessaire pour l’aider. (Oui, certains poussent de telles utilisations de ChatGPT.)

N’oubliez pas que l’IA est limitée par la quantité d’informations que vous y mettez.

Certains dans le domaine médical font pression pour utiliser des outils d’IA comme ChatGPT pour diagnostiquer les patients.
Christophe Sadowski

Au lieu de cela, j’ai pratiqué l’art de la médecine.

J’ai continué à ajuster ses médicaments contre l’hypertension et ses diurétiques.

Avec moins de résistance à la pompe, sa fonction cardiaque s’est améliorée à une fraction d’éjection de plus de 30 % et des hospitalisations prolongées et coûteuses ont été évitées.

L’IA pourrait être là à l’arrière pour réévaluer avec précision la fonction cardiaque, mais n’aurait jamais pu gérer le patient en cours de route comme je le pouvais.

Il existe également d’autres rôles prévus pour l’IA.

Les compagnies d’assurance et les systèmes de santé peuvent économiser de l’argent à court terme en mettant en œuvre l’IA pour remplacer les fonctions traditionnelles.

L’une d’entre elles est la pré-certification ou la pré-autorisation, lorsqu’un patient a besoin d’une autorisation spéciale de son assureur pour effectuer un test ou un traitement spécifique qui peut aller au-delà du protocole standard.

Je peux vouloir commander une IRM, par exemple, à cause du moindre picotement ou de la faiblesse d’un membre qui pourrait être le signe d’un problème beaucoup plus important.

Cela n’atteint peut-être pas les critères d’AI, mais comment vais-je discuter efficacement avec un ordinateur plutôt qu’avec le directeur médical d’une compagnie d’assurance ?

Ou un léger essoufflement et de la fatigue pourraient ne pas atteindre les critères d’IA d’une compagnie d’assurance pour l’approbation d’un échocardiogramme d’effort, même si je pense que c’est indiqué.

Ou une tomodensitométrie calcique pour rechercher une maladie coronarienne peut être refusée parce qu’un algorithme détermine que le patient est trop jeune.

Toutes ces questions dépendent du patient en particulier, et c’est mon rôle de les défendre auprès de l’assureur et de son directeur médical.


L'essor de l'IA en médecine pourrait entraîner une réduction de la qualité des soins.
L’essor de l’IA en médecine pourrait entraîner une réduction de la qualité des soins.
AP Photo/Michael Dwyer, Dossier

Mais il y a une pression croissante pour que l’IA économique prenne en charge les approbations et les rejets, ce qui ajoute un autre niveau de bureaucratie à un processus déjà ardu.

En effet, l’utilisation croissante de l’IA dans la pratique médicale menace de superposer un modèle unique qui se développe depuis le jour où la loi sur les soins abordables a été adoptée.

Certes, il existe des estimations L’IA entraînera des économies de 1,3 milliard de dollars aux compagnies d’assurance-maladie cette année.

Mais à quel prix pour la qualité des soins ?

Nous devons tenir compte du fait que les économies à court terme peuvent entraîner des pertes à plus long terme, car des diagnostics sont manqués ou des traitements sont retardés.

Cigna utilise déjà des algorithmes pour rejeter en masse les allégations de santé (sans même les lire réellement), et peu font appel, ProPublica vient de trouver.

Comment un médecin peut-il trouver le temps ou les moyens de faire appel ?

Et puis il y a la faute professionnelle. Les médecins en exercice comme moi craignent que nous ne soyons tenus à une norme établie par l’intelligence artificielle.

Que se passe-t-il si je ne suis pas d’accord avec une analyse informatique mais qu’il s’avère par la suite que j’ai tort ?

Cela m’exposera, moi et les médecins comme moi, à une responsabilité et nous poussera plus loin dans la direction de soins robotiques rigides pour éviter être poursuivi en justice.

Et inversement, l’utilisation accrue de l’IA pour diagnostiquer ou décider des soins cliniques place un hôpital ou un autre système de santé dans une position de responsabilité lorsque l’IA n’est pas à la hauteur de la tâche ou décide mal.

“Avec l’intégration croissante de l’intelligence artificielle et de l’apprentissage automatique en médecine, on craint que l’inexactitude des algorithmes puisse entraîner des blessures pour les patients et une responsabilité médicale”, un article récent de Milbank Quarterly a noté.

Mais le problème avec la solution des auteurs consistant à étendre un «cadre de responsabilité» pour couvrir l’ajout de l’IA est que cela signifie encore une autre couche de bureaucratie entre le patient et les soins réels dont il a besoin.

L’IA remplissant l’interface est une mauvaise solution au gonflement actuel des soins de santé.

L’intelligence artificielle, lorsqu’elle est utilisée correctement, sera un outil de santé utile.

Mais les médecins doivent le contrôler plutôt que l’inverse pour sauvegarder l’indispensable relation médecin-patient.

Marc Siegel, MD, est professeur clinicien de médecine et directeur médical de Doctor Radio à NYU Langone Health et analyste médical de Fox News.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT