Home » Sciences et technologies » ChatGPT surpasse les compétences de diagnostic des médecins dans une étude américaine

ChatGPT surpasse les compétences de diagnostic des médecins dans une étude américaine

by Nouvelles
ChatGPT surpasse les compétences de diagnostic des médecins dans une étude américaine

Parmi les professions qui ont l’intelligence artificielle (IA) comme alliée se trouve la médecine. Selon une étude publiée dans la revue Réseau Jama ouvert, la technologie est déjà capable d’égaler les médecins lorsqu’il s’agit de poser des diagnostics.

La recherche a été menée par des chercheurs du Beth Israel Deaconess Medical Center (BIDMC), à Boston, aux États-Unis. L’équipe a utilisé un outil appelé révisé-IDEA (r-IDEA), développé pour évaluer le raisonnement clinique des médecins, et la plateforme de chatbot d’intelligence artificielle GPT-4, de la société américaine Open AI.

21 médecins traitants et 18 résidents ont été recrutés pour l’étude. Chaque personne a travaillé sur un des 20 cas cliniques sélectionnés. L’enquête comprenait quatre étapes séquentielles de raisonnement diagnostique, et les participants devaient rédiger et justifier leurs analyses cliniques à chaque étape.

Parallèlement, le chatbot GPT-4 — une plateforme basée sur un grand modèle de langage (LLM) — recevait des instructions identiques à celles des médecins et évaluait l’ensemble des 20 cas cliniques. Mieux connu sous le nom de ChatGPT, le système est capable de comprendre et de générer des textes similaires à ceux écrits par des humains.

“La première étape est le dépistage des données, lorsque le patient vous dit ce qui le dérange et que vous obtenez des signes vitaux”, explique l’auteur principal Stephanie Cabral, résidente de troisième année en médecine interne au BIDMC, dans un communiqué. “La deuxième étape est l’examen du système, lorsque vous obtenez des informations supplémentaires du patient. La troisième est l’examen physique et la quatrième consiste à effectuer des tests de diagnostic et d’imagerie.”

Les réponses générées par l’IA ont été évaluées par l’outil r-IDEA et ont obtenu les meilleurs scores : la moyenne des médecins traitants était de 9 ; des résidents, 8 ; et ChatGPT, 10. Il y avait un lien entre les médecins et la plateforme concernant l’exactitude du diagnostic.

En revanche, dans l’évaluation du raisonnement clinique, les erreurs de réponses du chatbot étaient plus fréquentes que celles des résidents. Cela démontre que la technologie est utile en tant qu’outil d’aide et non en remplacement de l’évaluation clinique humaine.

“Les premières études suggéraient que l’IA pouvait poser des diagnostics si toutes les informations étaient fournies”, souligne Adam Rodman, chercheur au BIDMC. “Ce que montre notre étude, c’est que l’IA démontre un raisonnement réel – peut-être un meilleur raisonnement que les personnes à plusieurs étapes du processus. Nous avons une chance unique d’améliorer la qualité et l’expérience des soins de santé pour les patients.”

2024-04-04 06:10:51
1712202155


#ChatGPT #surpasse #les #compétences #diagnostic #des #médecins #dans #une #étude #américaine

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.