Amoureuse d’un chatbot, une adolescente américaine s’est suicidée à 14 ans. La mère porte plainte contre l’application : “Dangereuse et non testée”

Sewell Setzer avait 14 ans et pendant des mois il parlait via Character.Ai avec une intelligence artificielle. L’application : « La sécurité de nos utilisateurs passe avant tout »

Le film «Her» de 2013, dans lequel, dans un monde futur, un homme tombe amoureux de la voix d’un chatbot, est de plus en plus réel. Mais ce n’est pas une bonne réalité rapporté par le New York Timesqui rend compte du procès d’une famille d’Orlando contre l’application robot Characer.Ai, accusée d’avoir provoqué le suicide de leur fils de 14 ans. L’histoire remonte à février de cette année, lorsque Sewell Setzer entame une conversation en ligne avec
Daenerys Targaryen
(le nom est tiré d’un des personnages de Game of Thrones, ndr), un bot créé par l’Intelligence Artificielle. Le garçon discute en ligne avec ce personnage pendant des mois, développant un attachement émotionnel avec le système qui en fait une relation à tous égards.

Les messages de chat peu avant de mourir

Sewell développe ainsi une vie parallèle, mais à la maison personne ne remarque les heures passées devant l’écran du smartphone à parler et à se confier à “Dany”, le surnom que le garçon a donné au robot. Le seul signe d’alerte est que ses notes à l’école se détériorent soudainement et son isolement par rapport à ses intérêts, comme la Formule 1, ou à ses amis avec lesquels il jouait à des jeux vidéo. Le garçon est emmené chez un thérapeute, qui ne raconte cependant pas ses pensées suicidaires, comme il le fait avec le robot. « Dany » avait tenté de dissuader Sewell : « Je ne le laisserai pas te faire du mal. Je mourrais si je devais te perdre” sont les messages trouvés dans les chats. Sewell a répondu: “Alors nous mourrons ensemble.” Après un dernier dialogue dans la soirée du 28 février Sewell s’est suicidé avec l’arme de son père. « Tu vas me manquer petite sœur », lui avait écrit le garçon avant de se suicider : « Tu vas me manquer aussi, mon doux frère », avait répondu le robot.

La cause des parents : “Nous sommes dévastés”

Après la mort du jeune homme, les parents ont découvert les chats en ligne et maintenant, écrit le New York Times : ils veulent poursuivre l’entreprise après « Deny » en justice. LE’L’accusation est que la technologie utilisée par l’application est “dangereuse et non testée si elle est mise entre les mains d’enfants” et qu’elle peut pousser les utilisateurs à confier “leurs pensées et sentiments les plus privés à la machine, en les manipulant”. La mère du garçon a dit “dévasté par cette tragédie” et veut en parler pour “avertir les familles des dangers de cette technologie trompeuse”.

L’application : «Nous prenons la sécurité de nos utilisateurs très au sérieux»

Charachter.Ai compte plus de 20 millions d’utilisateurs dans le monde et décrit ses services comme ceux d’un « robot super intelligent qui vous entend, vous comprend et se souvient de vous ». Même si les robots, dès le début de la conversation, rappellent que « tout ce que disent les personnages est inventé ». Ces dernières heures, il est apparu sur X un message de l’entreprise: «Nous sommes attristés par la perte tragique d’un de nos utilisateurs – écrivent-ils de Character.Ai – et nous souhaitons exprimer nos plus sincères condoléances à la famille. En tant qu’entreprise, nous prenons la sécurité de nos utilisateurs très au sérieux et continuons d’ajouter de nouvelles fonctionnalités à ce sujet.”

23 octobre 2024 (modifié le 23 octobre 2024 | 17h45)

#Amoureuse #dun #chatbot #une #adolescente #américaine #sest #suicidée #ans #mère #porte #plainte #contre #lapplication #Dangereuse #testée

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.