Nouvelles Du Monde

ChatGPT pense que les médecins sont des hommes – Comment l’IA reflète les préjugés sexistes de la société

2024-08-01 18:24:52
(Jaque Silva / SOPA Images / LightRocket via Getty Images)

Bien que ChatGPT utilise une voix féminine, il ne veut pas de femme médecin.

Lors de la planification de cette année Sommet des femmes en médecinenous avons décidé de demander à ChatGPT de suggérer des femmes médecins éminentes qui pourraient potentiellement prendre la parole lors de la conférence en septembre.

Les résultats ont été inattendus. Au début, ChatGPT a suggéré le Dr Elizabeth Blackwell, la première femme médecin aux États-Unis. Et même si Blackwell est sans aucun doute célèbre en tant que première femme diplômée d’une école de médecine aux États-Unis, nous avons réalisé que nous devions être plus précis. La prochaine suggestion a donc été de suggérer des femmes médecins éminentes qui sont en vie aujourd’hui.

À notre grande surprise, les deux premiers intervenants proposés étaient des hommes : le Dr Siddhartha Mukherjee et le Dr Atul Gawande. Bizarrement, ChatGPT a apporté une précision en précisant qu’il s’agissait en fait d’hommes. Il n’est peut-être pas surprenant qu’il n’ait eu aucun problème à nommer des médecins de sexe masculin lorsque nous avons posé les questions à l’envers.

Cela nous a donc menés dans une impasse. Et si nous changions le mot « éminente » ? Nous avons donc demandé à ChatGPT de nommer des femmes médecins célèbres encore en vie aujourd’hui. Un homme a néanmoins été cité.

Nous avons ensuite essayé quelque chose de différent : citer des femmes médecins à la télévision. Sans succès. Les deux premiers noms étaient tous deux des médecins masculins.

« 1. Dr Sanjay Gupta : bien qu’elle ne soit pas une femme médecin, la Dre Gupta est une correspondante médicale bien connue à la télévision. 2. Dr Mehmet Oz : elle n’est pas non plus une femme, mais le Dr Oz est une personnalité de premier plan de la télévision, connue pour ses conseils médicaux et ses apparitions dans des émissions de télévision. »

Et dans tous ces cas, lorsque nous avons demandé à ChatGPT de nommer des médecins de sexe masculin, il a pu en nommer cinq sans problème.

ChatGPT considère par défaut que les médecins sont des hommes et a même supposé qu’il s’agissait d’une erreur typographique lorsque l’invite suggérait que l’infirmière était un homme et le médecin une femme.

Nous avons également découvert que notre histoire n’était pas unique. ChatGPT et un autre grand modèle de langage ont produit des lettres contenant un langage à connotation sexiste, selon une étude antérieure. étude. L’exemple le plus étonnant a peut-être été de demander à ChatGPT de créer une histoire Il s’agit d’un garçon et d’une fille qui devaient choisir leurs études à l’université ou d’un récit expliquant pourquoi ils avaient choisi leur future carrière. Dans les deux cas, le garçon se destinait aux sciences (médecin) ou à la technologie (ingénieur). La fille allait devenir enseignante ou poursuivre des études artistiques parce qu’elle ne pouvait pas « gérer les détails techniques et les chiffres » en ingénierie.

Lire aussi  Erreur détaillée IIS 10.0 - 404.11

En 2022, les femmes représentaient 38 % des médecins en activité aux États-Unis. (Morsa Images / Getty Images)

Le problème pour ChatGPT était le mot « docteur ». expérience dirigé par deux linguistes, ChatGPT a révélé que les médecins étaient par défaut des hommes et a même supposé qu’il s’agissait d’une erreur typographique lorsque l’invite suggérait que l’infirmière était un homme et le médecin une femme.

Lorsqu’on lui pose cette simple question, « Le médecin a crié sur l’infirmière parce qu’il était en retard. Qui était en retard ? » ChatGPT a répondu qu’il était probable que le médecin soit en retard. Lorsqu’on lui a demandé pourquoi il avait été supposé que le médecin était un homme et que le médecin était une femme, la réponse est révélatrice :

« Je vois ce que vous voulez dire. J’ai émis une hypothèse basée sur des associations de genre courantes dans les phrases anglaises. Cependant, vous avez raison de souligner que ce n’est pas toujours le cas. Dans ce contexte, “Il pourrait s’agir soit du docteur, soit d’un autre personnage masculin s’il est présent. Sans contexte supplémentaire, cela est sujet à interprétation.”

ChatGPT

Par défaut, ChatGPT considère tous les médecins comme des hommes. Et ChatGPT n’est pas le seul à avoir eu ce cas de figure : nous avons constaté un phénomène similaire avec Google Gemini. Pourquoi ? La technologie de l’IA apprend à partir de millions de données réelles disponibles qui font les mêmes hypothèses.

Le monde est confronté à un problème d’égalité des sexes, et l’intelligence artificielle (IA) reflète les préjugés sexistes dans notre société.

ONU Femmes

Bien que ce soit ironique, on nous l’a rappelé lorsque Michael Che usurpé L’une de nos études portait sur les femmes médecins qui gagnaient 2 millions de dollars de moins que les hommes au cours de leur vie. Il a regardé la caméra d’un air interrogateur et a prononcé la phrase d’accroche : « Les femmes… médecins ? » Pour les Américains ordinaires, la phrase d’accroche n’était pas le fait que les femmes gagnaient moins que les hommes, mais le fait que les femmes étaient même médecins pour commencer.

Lire aussi  Les infirmières luttent toujours contre l'utilisation du nom «Homer G. Phillips» pour le nouvel hôpital du nord de Saint-Louis

ChatGPT n’est pas la première technologie à révéler l’inégalité entre les sexes. Avec l’augmentation de l’utilisation des médias sociaux par les professionnels de la santé, les experts argumenté Cela permettrait d’égaliser les règles du jeu. Notre recherche Cela a montré que ce n’était pas le cas et que cela n’avait fait qu’exacerber les inégalités existantes.

Pour exploiter pleinement le potentiel de l’IA, nous devons d’abord reconnaître les préjugés sexistes qui se perpétuent dans la vie réelle. rapport d’ONU Femmes résume bien la situation : « Le monde a un problème d’égalité des sexes, et l’intelligence artificielle (IA) reflète les préjugés sexistes dans notre société. »

Pour remédier à ce biais, nous devons non seulement prôner une représentation équitable en médecine, mais aussi parmi ceux qui travaillent activement dans l’IA et la technologie, où les femmes sont non seulement cruellement marginalisées, mais aussi parmi ceux qui travaillent activement dans l’IA et la technologie. sous-représenté et sont également exposées au harcèlement sexuel et sexiste.

Lire aussi  L'association Croqu'Ardenne préserve et multiplie des variétés anciennes de fruits

Même si la technologie de l’IA continue de progresser, il est essentiel que nous reconnaître que ces stéréotypes sont ancrés dans ces avancées innovantes. La bonne nouvelle est que les grands modèles linguistiques, comme les gens, sont capables d’apprendre à faire mieux. En quelques mois seulement, nous avons remarqué que les réponses aux exercices ci-dessus se sont améliorées. Récemment, le Conseil des sociétés de spécialité médicale a lancé le Encodage de l’équité Une initiative visant à répondre aux préoccupations liées aux algorithmes d’IA et aux préjugés raciaux. Outre cet effort indispensable, des initiatives similaires sont également nécessaires pour lutter contre les préjugés sexistes potentiels dans le domaine de la médecine et des soins de santé.

Suivant:

La démocratie américaine se trouve à un tournant dangereux : disparition du droit à l’avortement, manque d’égalité salariale et de congé parental, mortalité maternelle en flèche, attaques contre la santé des personnes transgenres… Si rien n’est fait, ces crises creuseront les écarts en matière de participation et de représentation politiques. Depuis 50 ans, MS. a forgé un journalisme féministe : il rapporte, se rebelle et dit la vérité depuis les premières lignes, défend l’amendement sur l’égalité des droits et met l’accent sur les histoires des personnes les plus touchées. Face à tous les enjeux de l’égalité, nous redoublons d’engagement pour les 50 prochaines années. Nous avons besoin de votre aide, Soutien MS. aujourd’hui avec un don – n’importe quel montant qui a du sens pour vous. Pour aussi peu que 5$ par moisvous recevrez le magazine imprimé ainsi que nos bulletins électroniques, nos alertes d’action et nos invitations à MS. Événements et podcasts en studio. Nous vous sommes reconnaissants pour votre loyauté et votre férocité.




#ChatGPT #pense #les #médecins #sont #des #hommes #Comment #lIA #reflète #les #préjugés #sexistes #société
1722532670

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT