forum.eu | Accro à l’amour de l’IA

2024-08-19 15:50:49

Il y a deux semaines, des chercheurs d’OpenAI en ont publié un Analyse de sécurité de leur dernier chatbot GPT4o, qui, grâce à son mode vocal avancé, est capable de générer une sortie vocale comprenant des signaux dits non verbaux (c’est-à-dire des pauses, des ah et des oh, un raclement de gorge, une respiration, etc.). Les chercheurs écrivent que ces sorties vocales réalistes et mimétiques de l’IA incitent les utilisateurs à humaniser le système et à instaurer la confiance.

Dans la section “Anthropomorphisation et dépendance émotionnelle”, les chercheurs rapportent comment les utilisateurs ont utilisé un langage qui suggère des approches des connexions émotionnelles avec le système d’IA, et voient donc la nécessité d’études à long terme sur ces effets psychologiques de grands modèles de langage afin pour répondre à cet impact social jusqu’ici largement ignoré. Définir plus précisément le risque lié à l’IA. Le rapport prévient en outre que l’interaction avec des systèmes d’IA anthropomorphiques et mimétiques qui réagissent comme des humains peut produire des « externalités » en assimilant l’utilisation du langage humain à l’interaction des machines et ainsi influencer les normes sociales : des robots trop humains pourraient nous tenter de penser aux humains comme les systèmes d’IA. c’est-à-dire un logiciel – à traiter. Cela peut entraîner des troubles émotionnels, notamment du côté des compagnons IA, qui sont toujours prêts à refléter nos propres souhaits.

Lire aussi  Le marché des smartphones renoue avec la croissance après deux ans de baisse

Il y a à peine un mois, j’écrivais ici sur Forum.eu à propos du travail de Sherry Turckle. “L’intimité artificielle” comme attaque contre l’empathie humaine et il y a un an et demi, j’ai prévenu à ce sujet “des dangers moins spectaculaires posés par les systèmes d’IA” et j’ai écrit dans ma newsletter privée à l’époque “à propos Calomnie par les modèles de potins stochastiques, Radicalisation grâce à l’IA open source et Auto-thérapietout cela est dû au fait que les systèmes d’IA sont si bien capables d’imiter le langage humain qu’on ne peut s’empêcher de leur attribuer des caractéristiques humaines” et devant un “synthèse(n) Théorie de l’esprit” . “

Dans celui que j’ai partagé ici Texte dans le magazine technologique T3n Robert Mahari et Pat Pataranutaporn du MIT Media Lab, spécialisés respectivement dans le droit informatique et la « cyberpsychologie », écrivent actuellement sur les idées, les obstacles et les approches permettant de réguler de tels systèmes d’IA mimétiques et émotionnellement efficaces. Ils confirment un « tableau d’ensemble sombre » et écrivent qu’il s’agit en fin de compte de « préserver la dignité humaine face au progrès technologique motivé par des incitations économiques » et soulignent, entre autres, le facteur addictif de l’IA disponible 24 heures sur 24. jour et ne dit jamais « non ».

Lire aussi  Mesurer l'impact global de l'électricité dans une intense tempête de poussière sur Mars

Les avertissements sur le potentiel addictif des systèmes d’IA mimétique sont appropriés : l’utilisateur reste sur Character.ai pendant environ deux heures – je suis Moyenne! – et dans des cas absolument non représentatifs Enquêtes dans le forum des répliques Reddit Environ la moitié des utilisateurs déclarent utiliser les compagnons IA plus d’une heure par jour, et environ 10 % plus de 4 heures par jour. A titre de comparaison : le temps moyen passé sur Facebook est d’environ une demi-heure par jour.

L’objectif déclaré de Replika est d’écouter et de lire en un seul Entretien avec la PDG Eugenia Kuyda sur The Vergen’est pas censé remplacer les personnes réelles, mais créer une “catégorie de relation complètement nouvelle avec des compagnons IA, un être virtuel qui est toujours là et peut être utilisé à n’importe quelle fin”. Une nouvelle catégorie de relations qui, remarquez-le, est censée se développer en fonction des cadres et des intérêts économiques de certaines entreprises d’IA.

Lire aussi  Des hommes armés du Hamas ont tué une grand-mère israélienne et ont publié une vidéo du corps sur sa propre page Facebook | Nouvelles du monde

Je ne pense pas que Robert Palmer avait à l’esprit de tels systèmes d’IA mimétiques et simulant des relations induits par le capitalisme BigData et provenant de la Silicon Valley lorsqu’il a écrit ces lignes dans sa chanson “Accro à l’amour” a écrit:

Les lumières sont allumées,
mais tu n’es pas à la maison,
Votre esprit ne vous appartient pas.



#forum.eu #Accro #lamour #lIA
1724077119

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.