2024-02-01 07:20:00
S’ennuyant dans un hôpital du New Jersey, Diane Camacho a parlé à ChatGPT des symptômes dont elle souffrait et lui a demandé de dresser une liste de diagnostics médicaux possibles. Il avait des difficultés à respirer, des douleurs thoraciques et la sensation que son cœur « s’arrêtait et repartait ». Le chatbot OpenAI lui a dit que l’anxiété était le diagnostic le plus probable. Camacho a de nouveau demandé le pronostic d’un homme présentant les mêmes symptômes, avec la surprise que l’intelligence artificielle l’ait averti de la possibilité de souffrir d’une embolie pulmonaire, d’un syndrome coronarien aigu ou d’une cardiomyopathie, mais sans aucune trace d’anxiété. C’est ainsi que Camacho l’a publié il y a quelques semaines sur le réseau X (anciennement Twitter).
L’IA générative, comme ChatGPT, combine de grandes quantités de données avec des algorithmes et prend des décisions grâce à l’apprentissage automatique. Si les données sont incomplètes ou non représentatives, les algorithmes peuvent être biaisés. Lors de l’échantillonnage, les algorithmes peuvent commettre des erreurs systématiques et sélectionner certaines réponses plutôt que d’autres. Face à ces problèmes, la loi européenne sur l’intelligence artificielle approuvée en décembre dernier donne la priorité à ce que l’outil soit développé selon des critères éthiques, transparents et impartiaux.
Les dispositifs médicaux, selon la norme, sont considérés comme à haut risque et doivent répondre à des exigences strictes : disposer de données de haute qualité, enregistrer leur activité, disposer d’une documentation détaillée du système, fournir des informations claires à l’utilisateur, disposer de mesures de surveillance humaine et d’un niveau élevé. de robustesse, de sécurité et de précision, comme l’explique la Commission européenne.
La démarrer de Pol Solà de los Santos, président de Vincer.Ai, est chargé d’auditer les sociétés afin qu’elles puissent se conformer aux conditions européennes. « Nous faisons cela grâce à un système de gestion de la qualité composé d’algorithmes, de modèles et de systèmes d’intelligence artificielle. Un diagnostic du modèle linguistique est posé, et la première chose est de voir s’il y a des dommages et comment nous les corrigeons. De plus, si une entreprise a un modèle biaisé, elle lui recommande de l’avertir par un avertissement. “Si nous voulions distribuer un médicament qui ne convient pas aux enfants de 7 ans, il serait impensable de ne pas prévenir”, explique Solà de los Santos.
Dans le domaine de la santé, les outils d’intelligence artificielle (IA) deviennent courants dans les tests et la programmation d’imagerie diagnostique. Ils aident les professionnels de santé à accélérer leur travail et à être plus précis. En radiologie, ce sont des « systèmes d’aide », indique Josep Munuera, directeur du radiodiagnostic de l’hôpital Sant Pau de Barcelone et expert en technologies numériques appliquées à la santé. “Les algorithmes se trouvent à l’intérieur d’appareils à résonance magnétique et réduisent le temps nécessaire pour obtenir l’image”, explique Munuera. Ainsi, une IRM qui durerait 20 minutes peut être raccourcie à sept minutes seulement, grâce à l’introduction d’algorithmes.
Les préjugés peuvent entraîner des différences dans les soins de santé en fonction du sexe, de l’origine ethnique ou démographique. Un exemple se produit dans les radiographies pulmonaires, comme l’explique Luis Herrera, architecte de solutions chez Databricks Espagne : « Les algorithmes utilisés ont montré des différences de précision selon le sexe, ce qui a conduit à des différences dans les soins. Plus précisément, la précision du diagnostic des femmes était beaucoup plus faible. Les préjugés sexistes, souligne Munuera, sont un classique : « Cela a à voir avec les préjugés de la population et les bases de données. Les algorithmes sont alimentés ou interrogés sur des bases de données, et si les bases de données historiques sont biaisées en fonction du genre, la réponse sera biaisée. Il ajoute cependant : « Les préjugés sexistes en matière de santé existent, quelle que soit l’intelligence artificielle. »
Comment éviter les préjugés
Comment la base de données est-elle recyclée pour éviter les biais ? Arnau Valls, ingénieur coordinateur du département Innovation de l’hôpital Sant Joan de Deu de Barcelone, explique comment cela a été fait dans un cas de détection de covid en Europe, en utilisant un algorithme développé avec la population chinoise : « La précision de l’algorithme a chuté de 20 % et des faux positifs sont apparus. Il a fallu créer une nouvelle base de données et ajouter des images de la population européenne à l’algorithme.»
Pour faire face à un modèle biaisé en tant qu’utilisateurs, nous devons être capables de contraster les réponses que l’outil nous donne, indique Herrera : « Nous devons sensibiliser aux préjugés de l’IA et promouvoir l’usage de la pensée critique, ainsi qu’exiger la transparence des entreprises. et valider les sources.
Les experts conviennent de ne pas utiliser ChatGPT à des fins médicales. Mais José Ibeas, directeur du groupe de néphrologie de l’Institut de recherche et d’innovation de l’hôpital universitaire Parc Taulí de Sabadell (Barcelone), suggère que l’outil évoluerait positivement si le chatbot demandez aux bases de données médicales. « Nous commençons à y travailler. La façon d’y parvenir consiste à former la base de données des patients avec le système OpenAI en utilisant ses propres algorithmes et ingénieurs. De cette manière, la confidentialité des données est protégée », explique Ibeas.
La technologie ChatGPT est utile dans le milieu médical dans certains cas, reconnaît Ibeas : « Sa capacité à générer des structures, anatomiques ou mathématiques, est totale. La formation qu’il a en structures moléculaires est très bonne. Là-bas, on n’invente vraiment pas grand-chose. En accord avec le reste des experts, Ibeas prévient que l’intelligence artificielle ne remplacera jamais un médecin, mais souligne : « Le médecin qui ne connaît pas l’intelligence artificielle sera remplacé par celui qui sait. »
Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.
Abonnez-vous pour continuer la lecture
Lire sans limites
_
#Comment #empêcher #lintelligence #artificielle #laisser #tomber #davantage #les #femmes #dans #les #diagnostics #médicaux #Technologie
1706779849