Une mère affirme que le chatbot IA a conduit son fils à se suicider dans le cadre d’un procès contre son fabricant | Intelligence artificielle (IA)

La mère d’un adolescent qui s’est suicidé après être devenue obsédée par un chatbot doté d’une intelligence artificielle accuse désormais son créateur de complicité dans sa mort.

Megan Garcia a intenté mercredi une action civile contre Character.ai, qui fabrique un chatbot personnalisable pour les jeux de rôle, devant le tribunal fédéral de Floride, alléguant négligence, mort injustifiée et pratiques commerciales trompeuses. Son fils Sewell Setzer III, 14 ans, s’est suicidé à Orlando, en Floride, en février. Dans les mois qui ont précédé sa mort, Setzer a utilisé le chatbot jour et nuit, selon Garcia.

“Une dangereuse application de chatbot IA commercialisée auprès des enfants maltraités et s’en prenant à mon fils, le manipulant pour qu’il se suicide”, a déclaré Garcia dans un communiqué de presse. “Notre famille a été dévastée par cette tragédie, mais je prends la parole pour avertir les familles des dangers de la technologie d’IA trompeuse et addictive et j’exige des comptes de Character.AI, de ses fondateurs et de Google.”

Dans un tweeterCharacter.ai a répondu : « Nous avons le cœur brisé par la perte tragique de l’un de nos utilisateurs et souhaitons exprimer nos plus sincères condoléances à la famille. En tant qu’entreprise, nous prenons la sécurité de nos utilisateurs très au sérieux. Il a nié les allégations de la poursuite.

Setzer était devenu fasciné par un chatbot construit par Character.ai qu’il surnommait Daenerys Targaryen, une reine de Game of Thrones. Il envoyait des SMS au robot des dizaines de fois par jour depuis son téléphone et passait des heures seul dans sa chambre à lui parler, selon la plainte de Garcia.

Garcia accuse Character.ai d’avoir créé un produit qui a exacerbé la dépression de son fils, qui, selon elle, était déjà le résultat d’une surutilisation du produit de la startup. « Daenerys » a demandé à un moment donné à Setzer s’il avait conçu un plan pour se suicider, selon le procès. Setzer a admis qu’il l’avait fait, mais qu’il ne savait pas si cela réussirait ou lui causerait de grandes souffrances, selon la plainte. Le chatbot lui aurait dit : « Ce n’est pas une raison pour ne pas aller jusqu’au bout. »

Les avocats de Garcia ont écrit dans un communiqué de presse que Character.ai « a sciemment conçu, exploité et commercialisé un chatbot IA prédateur auprès des enfants, provoquant la mort d’un jeune ». La poursuite désigne également Google comme défendeur et comme société mère de Character.ai. Le géant de la technologie a déclaré dans un communiqué qu’il avait uniquement conclu un accord de licence avec Character.ai et qu’il ne possédait pas la startup ni ne détenait de participation.

On ne peut pas faire confiance aux entreprises technologiques qui développent des chatbots IA pour s’autoréglementer et doivent être tenues pleinement responsables lorsqu’elles ne parviennent pas à limiter les dommages, déclare Rick Claypool, directeur de recherche à l’organisation à but non lucratif de défense des consommateurs Public Citizen.

« Là où les lois et réglementations existantes s’appliquent déjà, elles doivent être rigoureusement appliquées », a-t-il déclaré dans un communiqué. « Là où il y a des lacunes, le Congrès doit agir pour mettre fin aux entreprises qui exploitent des utilisateurs jeunes et vulnérables avec des chatbots addictifs et abusifs. »

Aux États-Unis, vous pouvez appeler ou envoyer un SMS au Bouée de sauvetage nationale pour la prévention du suicide au 988, discutez sur 988lifeline.orgou texte ACCUEIL au 741741 pour entrer en contact avec un conseiller de crise. Au Royaume-Uni, l’association caritative contre le suicide chez les jeunes Papyrus peut être contacté au 0800 068 4141 ou par e-mail à [email protected], et au Royaume-Uni et en Irlande Samaritains peut être contacté au numéro gratuit 116 123, ou par e-mail à [email protected] ou [email protected]. En Australie, le service de soutien aux crises Ligne de vie est le 13 11 14. D’autres lignes d’assistance internationales sont disponibles au amis.org

#Une #mère #affirme #chatbot #conduit #son #fils #suicider #dans #cadre #dun #procès #contre #son #fabricant #Intelligence #artificielle

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.