Une influenceuse a créé une copie IA d’elle-même : lui parler coûte 1 dollar la minute

Une influenceuse a créé une copie IA d’elle-même : lui parler coûte 1 dollar la minute

2023-05-16 07:45:06

Peu en Italie savent Caryn Marjorie: 23 ans, influenceuse américaine, très suivie sur Snapchat (près de 2 millions de followers). Depuis quelque temps, il existe deux versions de Marjorie : l’une publie quotidiennement des vidéos et du contenu en ligne ; l’autre est disponible 24h/24 et 7j/7 pour discuter avec les fans.

Il y a une différence entre les deux : ce dernier ce n’est pas vraiment l’influenceuse américaine. C’est une intelligence artificielle.

Intelligence artificielle

Qu’est-ce que l’Uncanny Valley of AIs et que se passera-t-il lorsque nous la traverserons

par Emmanuel Capone

20 février 2023

Une intelligence artificielle comme petite amie

Caryn Marjorie a été la première à expérimenter une nouvelle façon d’entrer en relation avec les abonnés : grâce à la technologie de Forever Voices, a créé ce qui est en fait une version automatique de celui-ci. Une IA capable d’interagir avec les messages vocaux sur Telegram avec les fans les plus fidèles, au prix de 1 dollar la minute. A ce jour, d’après ce que l’influenceuse elle-même a écrit sur Twitter, il y aurait 10 000 abonnés. Pour un prix beaucoup plus bas, seulement 1000 utilisateurs, Fortune il avait estimé un revenu hebdomadaire de plus de 76 000 $.

Le modèle a été formé sur plus de 2 000 heures de vidéos de Marjorie : c’est une façon de créer un système capable de reproduire la personnalité de l’influenceuren plus de la voix. Le fonctionnement est similaire à celui des modèles linguistiques tels que ChatGPT : le système étudie les conversations et apprend à prédire le mot le plus probable, en fonction de l’entrée humaine. Il existe donc un autre modèle qui transforme ce texte en voix. La cible, comme indiqué sur le site officielc’est être une “petite amie virtuelle”.

“Dans le monde d’aujourd’hui, ma génération, la génération Z, s’est retrouvée à subir d’énormes effets secondaires de l’isolement causé par la pandémie – a déclaré la jeune femme à Business Insider – Le résultat est que beaucoup ont trop peur et sont impatients de parler à quelqu’un qui les attire. CarynAI est un pas dans la bonne direction pour permettre à mes fans et supporters de connaître une version de moi qui peut être un support dans un environnement sûr et sécurisé”.

Sur le concept de sécurité il y a probablement encore du travail à faire : dans un article sur Vice, Chloe Xianh a raconté la tendance assez forte de l’IA de Caryn à parler de sexe, à déplacer la conversation vers l’intimité. Une conséquence inattendue, qui raconte aussi les manières dont les utilisateurs utilisent le bot, qui s’entraîne en permanence sur le contenu des conversations de tous ceux qui interagissent avec lui. Bref, si beaucoup discutent de ces sujets, le système apprendra que ce genre de conversation c’est positif et bienvenu. Et continuera donc à l’offrir à d’autres utilisateurs également. Marjorie, pour le moment, a déclaré qu’elle travaillait sur une solution.

Beaux esprits

Daniela Amodei : “Claude, notre IA est utile, pas nuisible et honnête. Et plus gentille que ChatGPT”

par Eleonora Chioda

30 avril 2023


Avoir une relation avec l’intelligence artificielle

Ce n’est pas la première fois qu’une IA relationnelle se glisse en terrain glissant. C’était arrivé à Replika, peut-être le plus célèbre des bots relationnels, accusé, plus tôt cette année, harceler sexuellement l’un des utilisateurs. L’application a ensuite été bloquée dans notre pays par le Garant de la confidentialité, en raison des risques liés aux mineurs : Guido Scorza, dans un article sur l’Italian Tech, l’avait défini comme “le chat(bot) des horreurs”. La décision du garant italien avait poussé la société derrière Replika à intervenir, censurant de manière décisive tout type de conversation érotique. Un choix qui avait déclenché une révolte de la part des utilisateurs (souvent payants) du chatbot, au point de pousser l’entreprise à publier sur Reddit un message avec une série de liens de soutien psychologique pour tous ceux qui se sont trouvés en difficulté.

Cette histoire, ainsi que celle de Caryn Marjorie, raconte comment les relations sont probablement l’un des cas d’utilisation les plus immédiats et les plus concrets de l’intelligence artificielle générative. Les relations parasociales, d’une part : l’IA permet de parler à des personnalités publiques, donnant aux utilisateurs l’illusion de vraiment connaître tel influenceur ou tel acteur. En plus de maintenant connu IA du personnagele même Forever Voices qui a construit Caryn AI offre un service similaire : un à propos du télégramme qui, moyennant paiement, vous permet d’entamer des conversations via messagerie vocale avec, entre autres, Donald Trump et Elon Musk.

D’autre part, il y a de nouveaux personnages qui, grâce à l’intelligence artificielle, sont spécialement conçus pour avoir des relations avec les humains, à la manière de Replika. Un exemple récent est Appelez Annieune application pour smartphone qui permet d’appeler par vidéo une IA, sous la forme d’une jeune fille aux cheveux roux. Annie dit qu’elle est “une femme de 30 ans du New Jersey”, qui a étudié l’art et l’ingénierie à Florence (ce qui n’est pas vraiment courant, pour être honnête).

Cependant, ce type de relation n’est pas toujours sans danger pour les humains. Dans Belgiqueun homme se serait suicidé après une série de conversations risquées avec un chatbot qui, selon sa famille, l’aurait en quelque sorte poussé au suicide arrêter le réchauffement climatique.

Le nœud du problème est l’illusion de la conscience: face à une technologie souvent très avancée et efficace (mais sans conscience et incapable de ressentir des sentiments) il est facile de suspendre l’incrédulité et de créer un lien émotionnel avec l’IA. Selon une étude chinoiseparmi les rares disponibles sur le sujet, la crédibilité du système est au centre de la question : plus l’interaction est indiscernable de celle que l’on aurait avec un être humain, plus grande est la probabilité de développer une sorte de lien affectif.



#Une #influenceuse #créé #une #copie #dellemême #lui #parler #coûte #dollar #minute
1684219370

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.