Home » Santé » Le nœud de la certification de l’intelligence artificielle en médecine – partie avant

Le nœud de la certification de l’intelligence artificielle en médecine – partie avant

by Nouvelles

2025-02-13 10:15:00

Une série d’articles pour examiner comment l’IA se produit en ce qui concerne la vie privée – RGPD – et la réglementation européenne de la volonté médicale qui comprend également des logiciels – MDR. Commençons par les téléspectateurs cliniques.

Il ne fait aucun doute que l’un des domaines du plus grand intérêt pour l’intelligence artificielle – IA – est la médecine. La disponibilité de grands modèles linguistiques, également connue sous le nom de LLM, pré-édité avec un apprentissage en profondeur sur de grandes quantités de données, permet d’utiliser ces technologies dans de nombreux scénarios différents.

L’intérêt suscité est vraiment très élevé et implique non seulement les techniciens de la technologie de l’information, mais les mêmes professionnels de la santé et même les patients employant l’IA pour obtenir des explications et des conseils sur les thérapies et les options thérapeutiques. Nous sommes au début d’une révolution qui a commencé de manière silencieuse il y a plusieurs années, mais qui est maintenant le centre de l’attention de chacun, y compris la politique.

Face à tant d’enthousiasme et d’attentes si fortes, cependant, il est nécessaire de nous demander si et comment il est possible d’utiliser l’IA en médecine aujourd’hui. Il y a plusieurs aspects à examiner, mais je veux me concentrer sur deux d’entre eux: la confidentialité – RGPD – et la réglementation européenne de la volonté médicale qui comprend également des logiciels – MDR. J’ai donc décidé d’écrire une série de messages sur ce sujet, consacrant chaque article à une application possible de l’IA, car les considérations à modifier en fonction de l’objectif et des méthodes d’utilisation du LLM.

Téléspectateurs cliniques intelligents

Commençons par des téléspectateurs cliniques intelligents, c’est-à-dire de l’utilisation de LLM pour résumer et mettre en évidence les informations cliniques les plus pertinentes. C’est un problème qui est très ressenti par les médecins, dont vous trouvez un article ici, c’est-à-dire du syndrome de trop de documents, qu’ils soient papier ou électronique. La tentation d’utiliser la capacité de résumer et de mettre en évidence LLM est vraiment forte, à la fois pour obtenir une vision “systémique“O holistique du patient, que ce soit un spécialiste ou une” vision “réductionniste«Pour une branche médicale unique ou même un seul problème clinique. En bref, ayez tout ce qui est important à savoir sur le patient que je dois visiter sur une page et je dois formuler un diagnostic ou prescrire une thérapie.

Confidentialité

La plupart des LLM disponibles aujourd’hui sont des solutions cloud basées aux États-Unis, en Chine et, dans une moindre mesure, en Europe. La législation du RGPD comprend toutes les données personnelles et en particulier celles sensibles, également sous forme pseudo-anonymisée. Il n’est donc pas possible de transférer ces données sans respecter toutes les règles en vigueur. En particulier, il n’est pas possible de nourrir ces LLM avec des documents cliniques nommés, par exemple les rapports qui contiennent les données personnelles du patient. Il peut même ne pas être suffisant pour obscurcir ces données car l’ensemble des informations présentes peut permettre l’identification de la personne. C’est un thème sur lequel il y a une grande attention du garant de la vie privée et sur lequel il existe des techniques spécifiques de pseudo-anonymisation qui, cependant, sont incompatibles pour l’utilisation dont nous parlons.

Une solution possible pourrait être de créer “à la maison“Un LLM, à partir peut-être de certaines sources ouvertes, mais c’est un chemin difficile sur lequel il y a le problème des données avec lesquelles former les algorithmes. Ce n’est pas une coïncidence que dans l’appel d’offres pour la plate-forme artificielle pour les traitements primaires, cette possibilité a été exclue (contrainte placée par le garant).

Certification MDR

Un deuxième aspect très important est celui de la certification. Un spectateur clinique fait partie de la définition du logiciel aux fins des soins et, en tant que tel, fait partie de la réglementation européenne du MDR. Le spectateur serait utilisé pour soutenir le processus de prise de décision du médecin, avec un niveau de risque moyen. Que se passerait-il si le LLM ne comprenait pas les aspects cliniques pertinents du résumé? Ou si cela a fourni une mauvaise indication, en extrapolant une conclusion sur les données qu’il a examinées? Pour toutes ces raisons, je crois qu’un spectateur clinique de ce type est comparable à un système d’aide à la décision clinique qui nécessite une certification de classe II.

Mais qu’est-ce qui devrait être certifié? L’interface utilisateur ou le LLM? Certainement le second, peut-être même le premier. Il ne me semble pas qu’aucun des grands noms de l’IA ne fonctionne dans ce sens. Le discours pour une solution totalement maison serait différent, mais les considérations faites auparavant pour la vie privée valent.

Que faire alors?

Devons-nous donc abandonner l’idée d’utiliser LLM pour créer des téléspectateurs cliniques intelligents? Non, les avantages sont en théorie très nombreux et la consultation des données cliniques est un aspect crucial dans de nombreux cas, par exemple l’ESF et les ED. Il est nécessaire de penser avec le pragmatisme et de résoudre les problèmes que j’ai mentionnés avec un esprit critique rigoureux, de rechercher et de partager des solutions avec les autorités de supervision. En bref, passez des slogans et de la propagande technologique à un travail sérieux de mise en œuvre de ces nouvelles technologies fascinantes. Nous avons l’IA, nous essayons de comprendre comment l’utiliser.

1 – Continuer



#nœud #certification #lintelligence #artificielle #médecine #partie #avant
1739671022

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.