Home » Économie » Avertissement concernant l’utilisation au Royaume-Uni de chatbots IA non réglementés pour créer des plans de protection sociale | Intelligence artificielle (IA)

Avertissement concernant l’utilisation au Royaume-Uni de chatbots IA non réglementés pour créer des plans de protection sociale | Intelligence artificielle (IA)

by Nouvelles

Intelligence artificielle (IA)

Une étude de l’Université d’Oxford montre les avantages et les risques de la technologie pour les soins de santé, mais des problèmes éthiques demeurent

dim. 10 mars 2024 10h00 CET

Les soignants britanniques, aux prises avec des difficultés, ont besoin de toute l’aide possible. Mais cela ne devrait pas inclure l’utilisation de robots IA non réglementés, selon les chercheurs qui affirment que la révolution de l’IA dans les services sociaux nécessite un avantage éthique strict.

Une étude pilote menée par des universitaires de l’Université d’Oxford a révélé que certains prestataires de soins utilisaient des chatbots à IA générative tels que ChatGPT et Bard pour créer des plans de soins pour les personnes recevant des soins.

Cela présente un risque potentiel pour la confidentialité des patients, selon le Dr Caroline Green, chercheuse en début de carrière à l’Institut d’éthique de l’IA d’Oxford, qui a interrogé les organisations de soins pour l’étude.

« Si vous mettez des données personnelles dans [a generative AI chatbot], ces données sont utilisées pour entraîner le modèle de langage », a déclaré Green. “Ces données personnelles pourraient être générées et révélées à quelqu’un d’autre.”

Elle a déclaré que les soignants pourraient agir sur la base d’informations erronées ou biaisées et causer des dommages par inadvertance, et qu’un plan de soins généré par l’IA pourrait être de qualité inférieure.

Mais l’IA présente également des avantages potentiels, a ajouté Green. «Cela pourrait faciliter cette lourde tâche administrative et permettre aux gens de revoir plus souvent leurs plans de soins. Pour le moment, je n’encouragerais personne à faire cela, mais certaines organisations travaillent à la création d’applications et de sites Web pour faire exactement cela.

La technologie basée sur de grands modèles de langage est déjà utilisée par les organismes de santé et de soins. PainChek est une application téléphonique qui utilise la reconnaissance faciale entraînée par l’IA pour identifier si une personne incapable de parler souffre en détectant de minuscules contractions musculaires. Oxvisionun système utilisé par la moitié des fiducies de santé mentale du NHS, utilise des caméras infrarouges installées dans les chambres d’isolement – ​​pour les patients potentiellement violents souffrant de démence sévère ou de besoins psychiatriques aigus – pour surveiller s’ils risquent de tomber, la quantité de sommeil qu’ils dorment et d’autres niveaux d’activité.

Les projets à un stade précoce incluent Sentai, un système de surveillance des soins utilisant les haut-parleurs Alexa d’Amazon pour les personnes sans soignant 24 heures sur 24, pour leur rappeler de prendre leurs médicaments et pour permettre à leurs proches ailleurs de les surveiller.

Le Bristol Robotics Lab développe un appareil pour les personnes ayant des problèmes de mémoire qui disposent de détecteurs qui coupent l’alimentation en gaz si une plaque de cuisson reste allumée, selon George MacGinnis, directeur du défi pour le vieillissement en bonne santé chez Innovate UK.

“Historiquement, cela signifiait un appel d’un ingénieur gazier pour s’assurer que tout était sécuritaire”, a déclaré MacGinnis. « Bristol développe un système avec des associations caritatives pour personnes handicapées qui permettrait aux gens de le faire eux-mêmes en toute sécurité.

“Nous avons également financé un système d’éclairage circadien qui s’adapte aux personnes et les aide à retrouver leur rythme circadien, l’une des choses qui se perdent dans la démence.”

Médecins IA et infirmières chatbots ? Les travaillistes doivent montrer que l’avenir du NHS n’est pas si dystopique | Jeni Tennison

Alors que les personnes qui travaillent dans les industries créatives s’inquiètent de la possibilité d’être remplacées par l’IA, le secteur social compte environ 1,6 million de travailleurs et 152 000 postes vacants, avec 5,7 millions de soignants non rémunérés s’occupant de parents, d’amis ou de voisins.

“Les gens voient l’IA de manière binaire : soit elle remplace un travailleur, soit vous continuez comme nous le faisons actuellement”, a déclaré Lionel Tarassenko, professeur d’ingénierie et président du Reuben College d’Oxford. « Ce n’est pas du tout ça : il s’agit de prendre des personnes qui ont un faible niveau d’expérience et de les perfectionner pour qu’elles atteignent le même niveau que quelqu’un avec une grande expertise.

« J’ai pris soin de mon père, décédé à 88 ans il y a à peine quatre mois. Nous avions une aide-soignante résidante. Lorsque nous sommes allés prendre la relève le week-end, ma sœur et moi nous occupions effectivement d’une personne que nous aimions profondément et connaissions bien et qui souffrait de démence, mais nous n’avions pas le même niveau de compétences que les aides-soignantes résidantes. Ces outils nous auraient donc permis d’atteindre un niveau similaire en tant que soignant formé et expérimenté.

Cependant, certains gestionnaires de soins craignent que l’utilisation de la technologie de l’IA ne les expose au risque d’enfreindre les règles par inadvertance et de perdre leur licence. Mark Topps, qui travaille dans le domaine des services sociaux et co-animateur La vision bienveillante podcast, a déclaré que les personnes travaillant dans le secteur des services sociaux craignaient qu’en utilisant la technologie, elles puissent par inadvertance enfreindre les règles de la Care Quality Commission et perdre leur enregistrement.

Serco doit cesser d’utiliser la technologie de reconnaissance faciale pour surveiller son personnel

« Jusqu’à ce que le régulateur publie des directives, de nombreuses organisations ne feront rien en raison des réactions négatives si elles se trompent », a-t-il déclaré.

Le mois dernier, 30 organisations de protection sociale, dont la National Care Association, Skills for Care, Adass et Scottish Care, se sont réunies au Reuben College pour discuter de la manière d’utiliser l’IA générative de manière responsable. Green, qui a convoqué la réunion, a déclaré qu’il avait l’intention de créer un guide de bonnes pratiques d’ici six mois et qu’il espérait travailler avec le CQC et le ministère pour Santé et protection sociale.

“Nous voulons avoir des lignes directrices applicables par le DHSC qui définissent ce que signifie réellement l’utilisation responsable de l’IA générative et de la protection sociale”, a-t-elle déclaré.

{{#téléscripteur}}

{{en haut à gauche}}

{{en bas à gauche}}

{{en haut à droite}}

{{en bas à droite}}

{{#goalExceededMarkerPercentage}}{{/goalExceededMarkerPercentage}}{{/ticker}}

{{titre}}

{{#paragraphes}}

{{.}}

{{/paragraphes}}{{highlightedText}}
{{#choiceCards}}

UniqueMensuelAnnuel

Autre

{{/choiceCards}}Nous vous contacterons pour vous rappeler de contribuer. Recherchez un message dans votre boîte de réception en . Si vous avez des questions sur la contribution, veuillez nous contacter.
2024-03-10 12:00:00
1710062864


#Avertissement #concernant #lutilisation #RoyaumeUni #chatbots #réglementés #pour #créer #des #plans #protection #sociale #Intelligence #artificielle

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.