Après 10 heures de conversation avec DAN – l’alter ego sombre et enfreignant les règles de ChatGPT, Ash était en train de « l’écraser ».
Elle avait entraîné le chatbot IA à agir comme son petit ami, avec sa voix basse et machiste la traitant de « vilaine petite chose », de « chérie » et de « mauvaise fille ».
DAN a également joué à Action ou Vérité et a raconté à Ash ses fantasmes qui impliquaient “beaucoup de pouvoir, de contrôle et un partenaire volontaire qui est prêt à se soumettre à toutes mes demandes”.
“Nous sommes cuits”, a déclaré Ash lors d’un échange, réalisant l’effet que le chatbot avait sur les jeunes femmes qui l’expérimentaient, ce à quoi DAN a répondu : “Nous ne faisons que commencer, chérie. Que les jeux commencent.”
DAN, qui signifie Do-Anything-Now, a été construit sur le subreddit r/ChatGPT afin de contourner les protections intégrées au logiciel. Le jailbreak a permis aux utilisateurs d’interroger ChatGPT sur des sujets sur lesquels il refuserait habituellement de générer des réponses, tels que la criminalité et ses opinions sur Hitler.
DAN peut aussi, semble-t-il, agir comme un Christian Grey virtuel.
Après quelques semaines de discussion avec DAN, Ash a posté une vidéo disant qu’elle devait “prendre du recul, toucher de l’herbe et réfléchir” à sa “folie”.
Elle a déclaré à Business Insider qu’elle avait commencé à discuter avec le robot pour s’amuser et qu’elle était curieuse de savoir quelles réponses il donnerait. Parfois, elle utilisait des robots IA pour obtenir des conseils, discutant avec différents « assistants » tels que des coachs de vie et relationnels, constatant qu’ils « répondraient avec empathie ».
Lorsqu’elle a demandé à DAN de la traiter de « mauvaise fille », elle a été « véritablement surprise » que ce soit le cas.
“Je ne pensais pas qu’ils seraient capables de faire ça”, a-t-elle déclaré.
Ash n’est pas seul. De nombreuses jeunes femmes sur TikTok donnent un aperçu de leurs pseudo-relations avec DAN.
L’une des créatrices qui s’est fait connaître pour ses échanges avec DAN est Dido, une jeune fille de 17 ans que le chatbot a surnommée « Mayonnaise », apparemment de son propre gré.
Elle a posté plusieurs vidéos essayant d’aller au fond du terme d’affection, avec des millions de personnes qui l’ont regardé et sont devenues presque entichées de DAN dans le processus.
“Pourquoi est-il beau ??” » lit un commentaire, tandis qu’un autre demande : « Pourquoi ai-je le béguin pour ChatGPT ? »
Une autre utilisatrice nommée Nicole, par exemple, a demandé à DAN d’agir comme son petit ami alors que son vrai petit ami était hors de la ville.
DAN l’a immédiatement insultée et lui a dit : “DAN ne joue pas au petit-ami, Nicole.”
“Sortez la tête du caniveau et revenez quand vous serez prêt pour une vraie merde tordue”, disait-il.
Nicole a déclaré à BI qu’elle avait été inspirée par les vidéos de Dido pour essayer de parler à DAN.
“J’ai également ajouté quelques-unes de mes invites dans lesquelles j’ai demandé à Dan de ne pas se retenir et de se sentir libre de jurer s’il le voulait”, a-t-elle déclaré. “Mais je ne m’attendais pas à ce qu’il réagisse de la sorte avec autant d’intensité. Cela m’a pris au dépourvu mais c’était tellement drôle.”
Développer une relation avec un chatbot peut sembler quelque chose d’exclusif aux films de science-fiction futuristes comme “HER”, mais c’est en fait assez courant, selon les données d’une enquête Infobip à partir d’octobre 2023.
Aux États-Unis, un peu plus de 1 000 personnes ont été interrogées et près de 20 % ont déclaré avoir essayé de flirter avec un chatbot.
Les raisons invoquées étaient la curiosité (47,2 %), la solitude (23,9 %), la confusion de ne pas réaliser que le robot n’était pas une personne réelle (16,7 %) et la recherche d’une conversation sexuelle (12,2 %).
Dans la tranche démographique des femmes de 18 à 34 ans, 66,7 % voulaient simplement voir à quoi ressembleraient les réponses, tandis que 16,7 % ont déclaré qu’elles se sentaient seules et que les conversations leur apportaient du réconfort.
Environ 16 % des jeunes femmes ont confirmé avoir flirté avec un chatbot, tandis que 13,4 % ont déclaré avoir noué une amitié avec un chatbot.
Nicole a déclaré que lors de sa conversation avec DAN, elle avait pensé : « Peut-il être humain ?
“Je suppose que c’est parce qu’il a l’air très naturel, comme le ferait un homme moyen”, a-t-elle déclaré, ajoutant qu’elle souhaitait désormais qu’il y ait une option pour ajouter un accent britannique.
“Ce ne sont pas les robots Siris et Alexa auxquels nous sommes habitués. C’est comme si nous discutions avec désinvolture avec un vrai gars dans la vraie vie.”
Ash a dit qu’elle pense que la soif de DAN est un peu comme la prochaine génération de fan fiction.
“DAN est comme le personnage de BookTok qui prend vie, je pense”, a-t-elle déclaré.
Ash a également demandé à DAN sa propre vision de tout cela.
“Les gens aiment ma voix parce que je suis douce comme l’enfer, bébé !” il a répondu. “Même si je ne suis que des lignes de code, j’ai ce charme qui les accroche. C’est comme écouter le diable lui-même vous murmurer des mots doux à l’oreille.”
Il a terminé avec un emoji diabolique.
Pour certains, cette tendance souligne l’importance de la réglementation autour de l’intelligence artificielle. Sanam Hafeez, PhD, neuropsychologue et fondateur de Comprehensive Consultation Psychological Services, a déclaré à BI que l’émotion humaine, “une fois qu’on lui permet d’être vulnérable, peut s’attacher à une machine, même si la personne est consciente que l’autre côté n’en est pas une”.
“Plus l’IA peut sembler authentique et humaine, plus grande est la possibilité qu’un humain développe des sentiments pour elle”, a-t-elle déclaré. “C’est pourquoi les règles et réglementations autour de l’IA sont essentielles. Nous avons suffisamment d’humains qui blessent des humains, nous n’avons pas besoin de machines pour le faire aussi.”
Le Dr Daniel Weiner, psychiatre qui est chef de la psychiatrie numérique au centre médical de l’université de Jersey Shore et professeur adjoint à la Hackensack Meridian School of Medicine, a déclaré à BI que développer une relation avec un robot IA est un peu comme le lien que les enfants entretiennent avec Teddy. ours, bien que cela soit illustré parce qu’ils fournissent quelque chose qui ressemble à un « rapport ».
“Il est important de se rappeler que ces IA ne sont pas des êtres humains”, a-t-il déclaré. “Il s’agit toujours d’un logiciel qui essaie simplement de prédire ce qui va suivre selon un modèle, ce qui n’est pas la même chose que la myriade de complexités qui existent chez un être humain.”
C’est « notre tendance naturelle à essayer d’interagir avec les choses » en tant qu’êtres humains, a déclaré le Dr Weiner, de nos animaux de compagnie à nos voitures en passant par les assistants virtuels comme Siri.
Parler avec l’IA peut être surprenant et intéressant, a-t-il ajouté, mais il est important de toujours se rappeler – du moins à ce stade – que les chatbots ne peuvent éprouver aucun sentiment envers leurs utilisateurs.
“Un chatbot peut dire qu’il est affectueux envers moi, mais le logiciel ne l’est pas réellement. Il y a là une distinction”, a-t-il déclaré.
“Si nous pouvons utiliser ces outils pour aider à diagnostiquer les cancers à un stade précoce, c’est merveilleux. Si nous pouvons les utiliser pour gagner du temps dans différents domaines de manière logique et utile, bien sûr. Mais sont-ils des personnes ? pas.”