forum.eu | Accro à l’amour de l’IA

2024-08-19 15:50:49

Il y a deux semaines, des chercheurs d’OpenAI en ont publié un Analyse de sécurité de leur dernier chatbot GPT4o, qui, grâce à son mode vocal avancé, est capable de générer une sortie vocale comprenant des signaux dits non verbaux (c’est-à-dire des pauses, des ah et des oh, un raclement de gorge, une respiration, etc.). Les chercheurs écrivent que ces sorties vocales réalistes et mimétiques de l’IA incitent les utilisateurs à humaniser le système et à instaurer la confiance.

Dans la section “Anthropomorphisation et dépendance émotionnelle”, les chercheurs rapportent comment les utilisateurs ont utilisé un langage suggérant des approches des connexions émotionnelles avec le système d’IA et voient donc la nécessité d’études à long terme sur ces effets psychologiques de grands modèles de langage afin de s’attaquer à cet impact social jusqu’ici largement ignoré. Définir plus précisément le risque lié à l’IA. Le rapport prévient en outre que l’interaction avec des systèmes d’IA anthropomorphiques et mimétiques qui réagissent comme des humains peut produire des « externalités » en assimilant l’utilisation du langage humain à l’interaction des machines, influençant ainsi les normes sociales : des robots trop humains pourraient nous tenter de penser aux humains comme les systèmes d’IA. c’est-à-dire un logiciel – à traiter. Cela peut entraîner des troubles émotionnels, notamment du côté des compagnons IA, qui sont toujours prêts à refléter nos propres souhaits.

Lire aussi  Samsung prépare une montre connectée équipée d'un écran Micro LED pour concurrencer l'Apple Watch Ultra 2

Il y a à peine un mois, j’écrivais ici sur Forum.eu à propos du travail de Sherry Turckle, qui décrit cette « intimité artificielle » comme une attaque contre l’empathie humaine, et il y a un an et demi, j’avais déjà mis en garde ici contre ces « dangers moins spectaculaires » par AI” Systems” et j’ai écrit dans ma newsletter privée “à propos Calomnie par les modèles de potins stochastiques, Radicalisation grâce à l’IA open source et Auto-thérapietout cela est dû au fait que les systèmes d’IA sont si bien capables d’imiter le langage humain qu’on ne peut s’empêcher de leur attribuer des caractéristiques humaines” et devant un “synthèse(n) Théorie de l’esprit” . “

Dans celui que j’ai partagé ici Texte dans le magazine technologique T3n Robert Mahari et Pat Pataranutaporn du MIT Media Lab, spécialisés respectivement dans le droit informatique et la « cyberpsychologie », écrivent actuellement sur les idées, les obstacles et les approches pour réguler de tels systèmes d’IA mimétiques et émotionnellement efficaces. Ils confirment un « tableau d’ensemble sombre » et écrivent qu’il s’agit en fin de compte de « préserver la dignité humaine face au progrès technologique motivé par des incitations économiques » et soulignent, entre autres, le facteur addictif de l’IA disponible 24 heures sur 24. jour et ne dit jamais « non ».

Lire aussi  Bonne nouvelle pour les amateurs de HP iPhone 13 et 13 Pro, en février, le prix a baissé dans le pays

Les avertissements sur le potentiel addictif des systèmes d’IA mimétique sont appropriés : l’utilisateur reste sur Character.ai pendant environ deux heures – je suis Moyenne! – et dans des cas absolument non représentatifs Enquêtes dans le forum des répliques Reddit Environ la moitié des utilisateurs déclarent utiliser les compagnons IA plus d’une heure par jour et environ 10 % plus de 4 heures par jour. A titre de comparaison : le temps moyen passé sur Facebook est d’environ une demi-heure par jour.

L’objectif déclaré de Replika est d’écouter et de lire ici en un seul Entretien avec la PDG Eugenia Kuyda sur The Vergen’est pas censé remplacer les personnes réelles, mais créer une “catégorie complètement nouvelle de relations avec les compagnons de l’IA, un être virtuel qui est toujours là et peut être utilisé à n’importe quelle fin”. Une nouvelle catégorie de relations qui, remarquez-le, est censée se développer en fonction des cadres et des intérêts économiques de certaines entreprises d’IA.

Lire aussi  La "crise des valeurs" est responsable de la double crise de la biodiversité et du changement climatique | Actualités environnementales

Je ne pense pas que Robert Palmer avait à l’esprit de tels systèmes d’IA mimétiques et simulant des relations induits par le capitalisme BigData et provenant de la Silicon Valley lorsqu’il a écrit ces lignes dans sa chanson “Accro à l’amour” a écrit:

Les lumières sont allumées,
mais tu n’es pas à la maison,
Votre esprit ne vous appartient pas.



#forum.eu #Accro #lamour #lIA
1725710633

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.