forum.eu | Les masques mimétiques d’OpenAI

2024-05-21 11:55:00

La semaine dernière, OpenAI a présenté la dernière mise à jour de ChatGPT : le chatbot peut désormais « parler » et engager une « conversation » avec les utilisateurs avec différentes voix, avec des mots de remplissage « humains » (« Euh », « Um », etc.), des pauses, respiration simulée, rires et rires. Cette voix de la nouvelle version du chatbot sonnait tout comme celui de Scarlett Johanssonqui a déjà surnommé une IA il y a environ 10 ans — pour le film “Her” de Spike Jonze, une étude de personnages mélancoliques sur les conséquences des attachements émotionnels aux systèmes d’IA. Même pendant la présentation, le PDG d’OpenAI, Sam Altman, a tweeté (xte ?) un seul mot : “Son“.

Aujourd’hui, Scarlett Johansson a publié un Déclarationdans lequel elle a annoncé une action en justice et OpenAI a ensuite supprimé l’option vocale « Sky » de ChatGPT. Ce n’est qu’un malentendu et la similitude avec la voix de Scarlett Johansson n’est pas intentionnelle. Bien sûr. Comme le montre la déclaration de Johansson, OpenAI et l’actrice se sont levées je suis en négociations depuis des moiset deux jours avant la présentation, Altman a essayé de convaincre l’actrice de prêter sa voix à sa version de “Her”. Johansson a refusé son consentement et OpenAI a toujours utilisé une couleur vocale qui était au maximum similaire à celle de Johansson.

Je voudrais utiliser cet épisode de l’utilisation sans scrupules des marqueurs de personnalité humaine par les entreprises d’IA pour en souligner un Texte sur la philosophie de Bernard Stiegler à signaler. Stiegler a différencié le terme « technologie » du terme « technologie » pour montrer à quel point notre fascination pour la surface des technologies — les gadgets brillants, les interfaces colorées, les formes épurées et aujourd’hui : les voix séduisantes d’actrices connues — pour dissimuler notre relation réelle avec l’outil et son effet réel sur nous en tant qu’humains dans notre structure sociale.

Stiegler a développé le terme « pharmacologie », selon lequel les nouvelles technologies médiatiques ont sur nous un effet similaire à celui des produits pharmaceutiques et, comme la médecine, peuvent avoir des effets bénéfiques ou néfastes. Le concept de technologie de Stiegler met précisément en évidence ces effets « pharmaceutiques » de la technologie : les « effets secondaires » qui se cachent sous la surface des interfaces et des résultats d’application purs.

Sam Altman a donné à la dernière version de ChatGPT la voix d’une actrice bien connue dans le but explicite de réaliser réellement le chatbot fictif du film de Spike Johnson. La question maintenant, pour discuter avec Stiegler, est de savoir quels effets « pharmacologiques » se cachent réellement derrière cette interface de Scarlett Johansson. Deux choses me viennent immédiatement à l’esprit.

D’une part, une étude récente a confirmé les effets psychoactifs des chatbots IA : une expérience menée auprès de plus de 2 000 adeptes des théories du complot a montré qu’une conversation avec un chatbot changeait les croyances de ces personnes. pourrait être réduit d’environ 20%. Cela semble formidable à première vue, mais au départ, cela signifie simplement qu’un chatbot est capable d’influencer les gens dans la mesure où ils changent fondamentalement leurs attitudes. Les systèmes d’IA sont apparemment au sens littéral convaincant – et l’utilisation de la voix familière de Scarlett Johansson forme un lien direct entre la surface d’interface acoustique, désormais aussi glamour hollywoodienne, de la technologie ChatGPT et le pouvoir de séduction de la technologie de simulation de parole qui transparaît en dessous.

(Il y a un an, j’ai écrit la lettre ouverte de moratoire signé exactement pour cette raison: Je n’ai que légèrement peur des prétendus scénarios apocalyptiques de l’IA. Mais le pouvoir de séduction des systèmes d’IA mimétiques et anthropomorphiques qui suggèrent que le langage simulé est une « personnalité » et les conséquences psychologiques imprévisibles lorsque ces « personnalités » conduisent à une théorie synthétique de l’esprit dans laquelle les systèmes d’IA s’unissent. réel et efficace Prendre de la place en tant qu’« acteurs sociaux » dans notre psychisme individuel me préoccupe plus que n’importe quel bricoleur d’IA en trombone robotique. Un autre exemple similaire serait l’effet psychoactif des chatbots romantiques, qui réalisent tous nos souhaits sur commande et peuvent donc potentiellement produire des demandes imprévisibles et insatisfaisantes dans les relations avec les gens.)

En utilisant les voix (utilisées de manière non consensuelle) d’actrices connues et en les rendant catégoriquement « humaines » (c’est-à-dire en utilisant des mots de remplissage, des oh, des ah et des rires), OpenAI essaie spécifiquement de se mettre « sous la peau » de ses utilisateurs (pour obtenir le titre de l’un pour citer un autre film avec Scarlett Johansson). Avec cette tactique de séduction mimétique de l’IA, OpenAI dissimule, d’une part, l’effet psychoactif de son produit, et d’autre part, bien sûr, le fait qu’on paie très cher cette séduction synthétique par un chatbot sous forme de gigantesques Bilans de CO2 et consommation d’eau des centres de données équivalents à ceux de Microsoft seul au cours de l’année Augmentation de 30% en 2022.

Ce ne sont là que quelques-uns des effets possibles et réels des ChatGPT Technologiequi occultent déjà les masques techno-mimétiques d’OpenAI. D’autres suivront.



#forum.eu #Les #masques #mimétiques #dOpenAI
1730022809

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.