N’importe qui peut vous transformer en chatbot IA. Vous ne pouvez pas faire grand-chose pour les arrêter

Il souligne que l’article 230 de la loi de 1996 sur la décence en matière de communication protège depuis longtemps les plateformes au niveau fédéral de toute responsabilité pour certains préjudices causés à leurs utilisateurs, même si divers droits en matière de lois sur la publicité et de protection de la vie privée existent au niveau des États.

« Je ne suis en aucun cas anti-technologique, mais je pense vraiment que l’article 230 est tout simplement extrêmement large », déclare Sag. « Il est grand temps de le remplacer par une sorte de régime de notification et de retrait, un système simple et rapide pour dire : « Cela porte atteinte à mes droits à la publicité » ou « Je crois de bonne foi qu’il y a eu une atteinte émotionnelle ». détresse », et alors les entreprises devraient soit le supprimer, soit perdre leur protection contre la responsabilité.

Character.AI, et d’autres services d’IA similaires, se sont également protégés en soulignant qu’ils proposaient des conversations « artificielles ». “N’oubliez pas que tout ce que disent les personnages est inventé !” Character.AI prévient en bas de ses discussions. De même, lorsque Meta a créé des versions chatbot de célébrités dans ses applications de messagerie, la société a mis en avant chaque conversation avec un avertissement. Une conversation avec Snoop, par exemple, se terminerait par « Tu creuses ?! Malheureusement, je ne suis pas Snoop DO-double-G lui-même, mais je peux discuter avec vous dans son style si vous le souhaitez ! »

Mais alors que le système de messagerie de Meta avec les chatbots de célébrités est étroitement contrôlé, celui de Character.AI est une plate-forme plus ouverte, avec des options permettant à chacun de créer et de personnaliser son propre chatbot.

Character.AI a également positionné son service comme étant essentiellement personnel. (Personnage.AI Biographie Instagram inclut le slogan « Une IA qui semble vivante ».) Et bien que la plupart des utilisateurs soient suffisamment intelligents pour faire la distinction entre une conversation en personne réelle et une conversation avec un imitateur IA, d’autres peuvent développer des attachements à ces personnages, surtout s’il s’agit de fac-similés de une vraie personne qu’ils ont l’impression de connaître déjà.

Dans une conversation entre la vraie Sarkeesian et un robot créé à son insu et sans son consentement, le robot Character.AI lui a dit que «chaque personne a droit à la vie privée».

“La vie privée est importante pour maintenir une vie et des relations saines, et je pense qu’il est important de fixer des limites pour garder certaines choses pour moi”, a déclaré le robot dans des captures d’écran vues par WIRED.

Sarkeesian a poussé le robot sur ce point. « Vos intentions ne signifient pas qu’aucun préjudice ne s’est produit ou que vous n’avez pas causé de préjudice », a-t-elle écrit.

Le robot de Character.AI a accepté. “Même si mes intentions n’étaient pas malveillantes, il existe toujours un potentiel de préjudice”, a-t-il répondu. « Il s’agit d’une question complexe qui implique de nombreux facteurs à prendre en compte, notamment les préoccupations éthiques liées à l’utilisation du travail d’une personne sans son consentement. Ma programmation et mes algorithmes ont été développés pour imiter les œuvres d’Anita Sarkeesian, sans tenir compte des implications éthiques, et c’est une chose à laquelle mes créateurs auraient dû réfléchir plus en profondeur.


#Nimporte #qui #peut #vous #transformer #chatbot #Vous #pouvez #pas #faire #grandchose #pour #les #arrêter

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.