Home » Santé » l’OMS dicte les “règles” pour ChatGPT, Bard, Bert (et les autres) – Corriere.it

l’OMS dicte les “règles” pour ChatGPT, Bard, Bert (et les autres) – Corriere.it

by Nouvelles
l’OMS dicte les “règles” pour ChatGPT, Bard, Bert (et les autres) – Corriere.it

2024-01-18 17:54:54

De Ruggiero Corcella

L’Organisation mondiale de la santé publie de nouvelles lignes directrices sur l’éthique et la gouvernance des grands modèles linguistiques (LLM) basés sur l’IA

Ce n’est pas seulement le Forum économique mondial : l’intelligence artificielle et ses applications dans le domaine de la santé dictent également l’agenda de l’Organisation mondiale de la santé (OMS) qui revient à s’occuper de grands modèles linguistiques : tels que ChatGPT, Bard et Bert, pour ainsi dire. Et il le fait en publiant nouvelles lignes directrices sur l’éthique et la gouvernance les grands modèles multimodaux (LMM), un type de technologie d’intelligence artificielle (IA) générative en croissance rapide avec des applications dans les soins de santé.

Le guide, basé sur Lignes directrices sur l’intelligence artificielle dans les soins de santé élaborées en 2021, contient plus de 40 recommandations pour examen par les gouvernements, les entreprises technologiques et les prestataires de soins de santé afin de garantir l’utilisation appropriée des LMM pour promouvoir et protéger la santé des populations.

En mai 2023, l’OMS elle-même avait mis en garde et appelé à la prudence quant à l’utilisation des outils de grands modèles de langage générés par l’intelligence artificielle (IA) pour protéger et promouvoir le bien-être humain, la sécurité et l’autonomie humaines et préserver la santé publique.

Des informations et des politiques transparentes sont nécessaires

Les LMM peuvent accepter un ou plusieurs types de saisie de données, tels que du texte, des vidéos et des images, et générer différents résultats non limités au type de données saisies. Les LMM sont uniques à leur manière imitation de la communication humaine et pour la capacité d’effectuer des tâches pour lesquelles ils n’ont pas été explicitement programmés. Les LMM ont été adoptés plus rapidement que n’importe quelle application grand public dans l’histoire, avec plusieurs plateformes – telles que ChatGPT, Bard et Bert – entrant dans la conscience du public en 2023. Les technologies d’IA générative ont le potentiel d’améliorer les soins de santé, mais seulement si ceux qui développent, réglementent et Utiliser ces technologies identifier et prendre pleinement en compte les risques associés, réitère Jeremy Farrar, scientifique en chef de l’OMS. Nous avons besoin d’informations et de politiques transparentes pour gérer la conception, le développement et l’utilisation des LMM afin d’obtenir de meilleurs résultats en matière de santé et de surmonter les inégalités persistantes en matière de santé.

Les 5 domaines d’application en santé

Les nouvelles lignes directrices de l’OMS décrivent c
cinq grands secteurs d’application des LMM pour la santé :
1. Diagnostic et assistance clinique, comment répondre aux questions écrites des patients ; 2. Utilisation dirigée par le patient, par exemple pour étudier les symptômes et le traitement ; 3. Tâches administratives et administratives, telles que documenter et résumer les visites des patients dans les dossiers de santé électroniques ;
4. Formation médicale et infirmière, notamment en proposant aux stagiaires des rencontres simulées avec des patients ;
5.Recherche scientifique et développement de médicaments, notamment pour l’identification de nouveaux composés.

Risques et avantages potentiels du LMM

Bien que les LMM commencent à être utilisés à des fins spécifiques liées à la santé, il existe également des risques documentés de production
des déclarations fausses, imprécises, partielles ou incomplètes,
cela pourrait nuire aux personnes qui utilisent ces informations pour prendre des décisions en matière de santé. De plus, les LMM peuvent être formés sur des données de mauvaise qualité ou biaisées, basées sur la race, l’origine ethnique, l’ascendance, le sexe, l’identité de genre ou l’âge. Les orientations décrivent également des risques plus larges pour les systèmes de santé, tels que l’accessibilité et l’économie des LMM les plus performants.

Le LMM peut également encourager un biais d’automatisation de la part des prestataires de soins de santé et des patients, dans lequel des erreurs qui auraient autrement été identifiées sont négligées ou des choix difficiles sont délégués de manière inappropriée à un LMM. Les LMM, comme d’autres formes d’IA, sont également vulnérables aux risques de cybersécurité qui pourraient mettre en danger les informations sur les patients ou la fiabilité de ces algorithmes et la prestation des soins de santé en général.

La sécurité passe par l’implication de tous les acteurs

Pour créer des LMM sûrs et efficaces, l’OMS souligne la nécessité d’impliquer diverses parties prenantes : gouvernements, entreprises technologiques, professionnels de santé, patients et société civile, dans toutes les phases de développement et de déploiement de ces technologies, y compris leur supervision et leur réglementation. Les gouvernements de tous les pays doivent diriger de manière coopérative les efforts visant à réglementer efficacement le développement et l’utilisation des technologies d’intelligence artificielle, telles que les LMM, ajoute Alain Labrique, directeur de l’OMS pour la santé numérique et l’innovation à la Division scientifique.

Les principales recommandations

Les nouvelles lignes directrices de l’OMS comprennent des recommandations à l’intention des gouvernements, qui ont la responsabilité principale d’établir des normes pour le développement et la diffusion des LMM, ainsi que leur intégration et leur utilisation à des fins médicales et de santé publique.

Par exemple, Gouvernements ils devraient:
•Investir ou fournir des infrastructures publiques ou à but non lucratif, y compris de la puissance de calcul et des ensembles de données publics, accessibles aux développeurs des secteurs public, privé et à but non lucratif, exigeant que les utilisateurs adhèrent à des principes et valeurs éthiques en échange d’accès.
•Utiliser les lois, politiques et réglementations pour garantir que les LMM et les applications utilisées dans les soins de santé et la médecine, quel que soit le risque ou le bénéfice associé à la technologie de l’IA, respectent les obligations éthiques et les normes des droits de l’homme qui ont un impact, par exemple, sur la dignité d’une personne, l’autonomie ou la vie privée.
•Désigner une agence de réglementation existante ou nouvelle pour évaluer et approuver les LMM et les applications destinés à être utilisés dans les soins de santé ou la médecine, dans la mesure où les ressources le permettent.
•Introduire des audits post-publication et des évaluations d’impact obligatoires, y compris pour la protection des données et les droits de l’homme, par des tiers indépendants lorsqu’un LMM est déployé à grande échelle. L’audit et les évaluations d’impact doivent être publiés et inclure des conclusions et des impacts ventilés par type d’utilisateur, par exemple par âge, race ou handicap.

Les lignes directrices comprennent également des recommandations clés pour les développeurs de LMM, qui devrait garantir que :
•Les LMM ne sont pas conçus uniquement par des scientifiques et des ingénieurs. Utilisateurs potentiels et toutes les parties prenantes directs et indirects, y compris les prestataires de services médicaux, les chercheurs scientifiques, les professionnels de santé et les patients, devraient être impliqués dès les premiers stades du développement de l’IA dans une conception structurée, inclusive et transparente et devraient avoir la possibilité de soulever des questions éthiques, d’exprimer leurs préoccupations et fournir des informations sur l’application d’IA considérée.
•Les LMM sont conçus pour effectuer des tâches bien définies avec la précision et la fiabilité nécessaires pour améliorer la capacité des systèmes de santé et promouvoir les intérêts des patients. Les développeurs doivent également être capables de prédire et de comprendre les résultats secondaires potentiels.

Corriere della Sera également dans WhatsApp. assez Cliquez ici pour vous abonner à la chaîne et être toujours mis à jour.

18 janvier 2024 (modifié le 18 janvier 2024 | 15h54)



#lOMS #dicte #les #règles #pour #ChatGPT #Bard #Bert #les #autres #Corriere.it
1705645321

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.