Nouvelles Du Monde

ChatGPT peut aider à éduquer les patients en radiologie interventionnelle

ChatGPT peut aider à éduquer les patients en radiologie interventionnelle

ChatGPT est un outil relativement sûr et précis pour l’éducation des patients en radiologie interventionnelle, selon une étude publiée le 23 octobre dans Radiologie CardioVasculaire et Interventionnelle.

Une équipe de l’Université Philipps de Marburg en Allemagne a exploré l’utilisation de GPT-3 et GPT-4 pour une éducation approfondie des patients avant les procédures de radiologie interventionnelle et a trouvé les deux versions du modèle très précises.

« La faisabilité et la précision de ces modèles suggèrent leur rôle prometteur dans la révolution des soins aux patients. Néanmoins, les utilisateurs doivent être conscients des limitations possibles », ont écrit le premier auteur Michael Scheschenja, MD, et ses collègues.

Malgré les progrès et la popularité croissante de ce domaine, de nombreux patients ont une compréhension limitée des procédures interventionnelles, écrivent les auteurs. Alors que l’utilisation d’Internet pour rechercher des informations sur la santé est déjà un phénomène courant, l’utilisation de grands modèles linguistiques comme ChatGPT à de telles fins nécessite une validation, ont-ils ajouté.

Lire aussi  Les secrets du lifting profond en plan

À cette fin, le groupe a spécifiquement exploré la faisabilité d’utiliser GPT-3 et GPT-4 pour l’éducation des patients avant trois procédures courantes : implantations de ports, angioplastie transluminale percutanée et chimioembolisation transartérielle.

Les chercheurs ont posé 133 questions approfondies en anglais sur ces procédures, la précision des réponses étant évaluée par deux radiologues ayant quatre et sept ans d’expérience à l’aide d’une échelle de Likert à 5 points. Les questions couvraient divers aspects de la procédure, notamment des informations générales, la préparation de la procédure et la procédure elle-même, les risques et complications, ainsi que les soins post-interventionnels.

GPT-3 et GPT-4 ont été jugés « tout à fait corrects » (scores de 5) dans 31 % et 35 % de leurs réponses et « très bons » (scores de 4) dans 48 % et 47 % de leurs réponses, selon les résultats.

De plus, GPT-3 et GPT-4 ont fourni des réponses « acceptables » (scores de 3) dans 15,8 % et 15,0 % du temps. Enfin, GPT-3 était « pour la plupart incorrect » (scores de 2) dans 5,3 % de ses réponses, tandis que GPT-4 avait un taux plus faible de telles occurrences, à seulement 2,3 %.

Lire aussi  Autorisation d'un médicament dès l'âge de 12 ans pour soigner la pelade, une forme sévère d'alopécie en "plaques"

En fin de compte, aucune réponse n’a été identifiée comme potentiellement dangereuse, ont noté les chercheurs.

« Les résultats de cette étude démontrent le potentiel des modèles linguistiques basés sur l’IA, notamment GPT-3 et GPT-4, en tant que ressources pour l’éducation spécifique des patients dans [interventional radiology]», a écrit le groupe.

Les chercheurs ont relevé des pièges. Des ambiguïtés peuvent surgir lorsque ChatGPT traite des abréviations, la compréhensibilité du langage peut être un problème et le manque de compréhension sémantique du chatbot pourrait conduire à une confusion entre les meilleures pratiques et les informations obsolètes, ont-ils noté.

“Les études futures devraient évaluer l’applicabilité de ces modèles avec des patients réels”, ont conclu les chercheurs.

L’article complet est disponible ici.

2023-10-26 10:41:15
1698309044


#ChatGPT #peut #aider #éduquer #les #patients #radiologie #interventionnelle

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT