Home » Santé » Certification IA médicale : le troisième volet

Certification IA médicale : le troisième volet

by Nouvelles

Examinons l’impact du Règlement sur les dispositifs médicaux (RDM) et du Règlement général sur la protection des données (RGPD) sur les systèmes d’aide à la décision basés sur des modèles linguistiques à grande échelle.

Après avoir abordé la certification des visualiseurs cliniques intelligents et des outils pour l’autonomisation du patient, examinons l’application de l’IA dans les systèmes d’aide à la décision clinique (SADC).

Les SADC étaient et sont toujours basés sur des moteurs de règles que l’on peut définir comme une forme d’IA des années 80-90, plus précisément l’IA symbolique. Dans cette forme d’IA, la connaissance est composée de symboles (mots ou phrases), généralement compréhensibles par un être humain, et de règles que le program peut combiner ou élaborer pour accomplir la tâche assignée. le développement et la mise à jour de la base de connaissances, ainsi que la construction des règles, sont très coûteux et nécessitent des compétences multidisciplinaires, à la fois scientifiques et techniques en informatique. En revanche, la certification de ces programmes, qui relèvent de la classe II du règlement européen (RDM), est assez facile car il est possible d’examiner chaque règle et de vérifier son exactitude en la comparant aux preuves scientifiques contenues dans la base de connaissances.

La diffusion de modèles linguistiques à grande échelle (LLM) permet de réaliser des SADC à faible coût de développement,où l’effort principal réside dans l’articulation du “prompting” afin d’obtenir des réponses correctes et fonctionnelles pour le type d’utilisateur et l’objectif visé.Cependant, en revenant un instant sur l’aspect des coûts, il faut préciser que l’utilisation des LLM n’est pas gratuite et peut même devenir très coûteuse, ce qui entraîne un faible coût d’investissement initial mais un coût opérationnel élevé.

Il faut observer que les SADC basés sur les LLM fonctionnent, contrairement à ceux basés sur l’IA symbolique, comme des « boîtes noires ». Même lorsqu’ils fournissent les références qui ont été utilisées – l’« IA explicable » – il est très difficile de comprendre le « raisonnement » qui a été effectué par le programme. Il est nécessaire de rappeler qu’en réalité, ce modèle d’IA n’exécute pas de raisonnements qui simulent d’une manière ou d’une autre les règles de l’IA symbolique, mais qu’il se base sur le calcul probabiliste qui découle d’une évaluation numérique composée d’une série de poids sur un très grand nombre de nœuds d’un réseau neuronal. Ce mécanisme est presque impractical à évaluer a priori pour un être humain.

La certification de ces programmes doit donc reposer sur des critères et des méthodologies complètement différents de ceux utilisés pour l’IA symbolique et pour tout autre logiciel non basé sur l’IA.Rien d’insoluble, mais comme toutes les nouveautés, cela nécessite une période de rodage et de mise au point de nouveaux mécanismes.

il est notable de souligner que l’utilisation de l’IA n’exempte pas les producteurs de ces programmes de la certification RDM de classe II. Il s’agit d’une exigence obligatoire sans laquelle il n’est pas possible d’utiliser ces outils dans la pratique clinique. L’IA, en d’autres termes, n’offre pas de raccourcis ou de dérogations aux règles en vigueur.

Moins critique,par rapport à d’autres utilisations de l’IA,est la question de la protection de la vie privée.Les modèles LLM n’ont pas besoin de savoir à qui appartiennent les données qui composent le “prompt” avec lequel on les interroge. Cependant, dans ce cas également, il faut tenir compte de la quantité et de l’exhaustivité des données cliniques utilisées : plus elles sont détaillées, par exemple si elles se réfèrent à des pathologies rares, plus il est théoriquement possible de les relier à une identité personnelle. Le découplage des données cliniques des données personnelles, typique de ces systèmes qui opèrent uniquement sur les secondes, tandis que le couplage est effectué par le système clinique qui invoque le SADC, permet de considérer la gestion des données comme pseudo-anonymisée ou anonymisée. Il reste cependant le problème, qui a déjà été abordé dans des articles précédents, de la persistance des données cliniques dans les systèmes d’IA et de leur utilisation pour l’entraînement des modèles.

Le champ d’application des SADC est très vaste.Les considérations faites jusqu’à présent sont de nature générale. Un prochain article examinera en détail les algorithmes de support au diagnostic sur les images, un domaine très prometteur dans lequel l’IA peut offrir des performances de haut niveau et une grande précision.

Impact du RDM et du RGPD sur les Systèmes d’Aide à la Décision basés sur les LLM

L’IA dans les Systèmes d’Aide à la Décision Clinique (SADC)

Les Systèmes d’Aide à la Décision Clinique (SADC) ont évolué. Initialement basés sur l’IA symbolique (moteurs de règles), leur développement était coûteux et nécessitait des compétences multidisciplinaires. Cependant, la certification, relevant de la classe II du Règlement sur les dispositifs médicaux (RDM), était relativement simple car chaque règle pouvait être vérifiée.

L’avènement des modèles linguistiques à grande échelle (LLM) a révolutionné la création des SADC. Le coût de développement est réduit, l’effort principal se concentrant sur l’optimisation des “prompts”. Néanmoins, l’utilisation des LLM engendre un coût opérationnel critically important, compensant le faible coût initial.

Boîtes Noires et Certification

Contrairement aux SADC basés sur l’IA symbolique,les LLM fonctionnent comme des “boîtes noires”. Même avec l'”IA explicable”, comprendre leur raisonnement est complexe. Leur fonctionnement repose sur le calcul probabiliste d’un réseau neuronal, difficilement évaluable a priori par un humain. La certification de ces systèmes requiert donc de nouvelles méthodologies.Malgré cela, la certification RDM de classe II reste obligatoire. L’IA ne dispense pas de cette exigence réglementaire.

Protection des Données et RGPD

la protection de la vie privée est moins critique avec les LLM qu’avec d’autres applications de l’IA. Les LLM n’ont pas besoin d’identifier la source des données du “prompt”. Néanmoins, l’exhaustivité des données cliniques utilisées est un facteur critically important. Des données très détaillées pourraient théoriquement permettre une réidentification. Le découplage des données cliniques et des données personnelles permet une gestion pseudo-anonymisée ou anonymisée. Cependant, la persistance des données cliniques dans les systèmes d’IA et leur utilisation pour l’entraînement des modèles restent des problèmes.

Tableau récapitulatif : SADC basés sur l’IA symbolique vs LLM

| Caractéristique | IA Symbolique (Moteurs de règles) | LLM |

|————————–|———————————–|————————————|

| coût de développement | Élevé | Faible |

| Coût opérationnel | Faible | Élevé |

| transparence | Haute | Faible (“boîte noire”) |

| Certification RDM | Relativement simple | Nécessite de nouvelles méthodologies |

| Protection de la vie privée | Dépend des données utilisées | Risques liés à l’exhaustivité des données |

FAQ

Q: L’IA dispense-t-elle de la certification RDM ?

R: Non, la certification RDM reste obligatoire pour tous les SADC, y compris ceux basés sur les LLM.

Q: Quel est le principal défi concernant les LLM dans les SADC ?

R: La certification, en raison de la nature “boîte noire” de leur fonctionnement.

Q: Comment est gérée la protection des données avec les LLM dans les SADC ?

R: Par un découplage des données cliniques et des données personnelles, mais la persistance des données et leur utilisation pour l’entraînement restent des préoccupations.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.