ChatGPT invente un scandale sexuel – et transforme un vrai professeur en auteur

ChatGPT invente un scandale sexuel – et transforme un vrai professeur en auteur

KI-Bot
ChatGPT invente un scandale sexuel – et transforme un vrai professeur en auteur

Tout ce que ChatGPT présente en toute confiance ne doit pas être cru (image symbolique)

© Sanja Radin / Getty Images


Il est bien connu que ChatGPT aime inventer des faits. Mais maintenant, cela a des conséquences très concrètes dans la vie réelle : un professeur aux États-Unis a été innocemment accusé d’agression sexuelle.

Écrire de longs textes, expliquer des sujets complexes dans le chat ou simplement discuter : c’est plus qu’impressionnant ce que l’IA derrière ChatGPT peut écrire ensemble. Bien sûr, vous devez être conscient qu’elle peut être un peu sujette aux erreurs et inventer des faits. Pour Jonathan Turley, professeur aux États-Unis, l’inventivité de l’IA a désormais des conséquences surprenantes.

“C’était assez effrayant”, a déclaré Turley au Washington Post. Dans le cadre d’une étude, un collègue avait interrogé le chatbot sur des chercheurs qui avaient auparavant harcelé sexuellement quelqu’un. Et puis repéré Turley sur la liste aussi.

Nouvelles inventées sur de vraies personnes

Selon ChatGPT, Turley a fait à plusieurs reprises des remarques obscènes sur les étudiantes, et lors d’un voyage d’étude en Alaska en 2018, il aurait même tenté de peloter une étudiante. Le bot a cité un article du Washington Post comme source. Le problème avec ceci : Cet article n’a jamais existé. Turley n’avait jamais été accusé de comportement inapproprié envers les étudiants. Et même le voyage en Alaska n’avait pas eu lieu.

Turley a été choqué de manière appropriée. “De telles allégations peuvent être extrêmement préjudiciables”, explique-t-il son inquiétude. Le mouvement Metoo et la prise de conscience qui en a résulté du problème des agressions sexuelles dans les déséquilibres de pouvoir a été un sujet énorme dans les universités américaines pendant des années. Une éventuelle faute ou même le soupçon de celle-ci peut très vite avoir des conséquences très graves.

<x-embed class="js-embed embed u-typo u-typo–article-text" consent="pending" privacy-link="https://www.stern.de/datenschutzbestimmungen-4541848.html" privacy-settings-link="https://www.stern.de/digital/online/javascript:window._sp_.loadPrivacyManagerModal(237312)" srcdoc="

Patinage en couple : Laquelle des deux images provient de l’IA ?

Laquelle de ces images de grenouilles nettes comme des rasoirs provient de l’IA ?

laquelle de ces deux filles a été représentée par l’IA ?

Lequel des tigres a été conçu par l’IA ?

Un joueur de football fatigué à gauche, un joueur de rugby à droite – lequel des athlètes a été inventé par l’IA ?

Laquelle de ces cavalières vient de l’IA ?

A mordre, non ? Mais un bol de fraises ne vient que de l’IA. Qui?

Lequel de ces messieurs pimpants a été coiffé par l’IA ?

Lequel de ces refuges de montagne a été inventé par l’IA ?

Lequel des horizons a été imagé par l’IA ?

Peter Fox a déjà fait l’éloge de la “maison au bord du lac” – laquelle de ces deux cabanes vient de l’IA ?

Avec lequel de ces plats de pâtes ne mange-t-il que l’œil proverbial, car le plat vient de l’IA ?

Il y a encore place à l’amélioration !

Crédits
KI : Derik Meinköhn / Midjourney
Photos : Adobe

C’était très bien!

Crédits
KI : Derik Meinköhn / Midjourney
Photos : Adobe

Chapeau ! Vous n’êtes pas facilement dupe !

Crédits
KI : Derik Meinköhn / Midjourney
Photos : Adobe

” identifiant-vendeur=”5ef0df6ffabc265f5650e743″ nom-vendeur=”Devinette”/>

Pas d’autorité de contrôle

L’échec de l’IA est donc particulièrement problématique. La citation supposée d’un journal réputé rend les allégations authentiques si vous ne prenez pas la peine de les vérifier attentivement. Et: L’IA présente ses déclarations avec beaucoup d’assurance. Pour un lecteur imprudent, ils donnent l’impression : c’est comme ça.

Cependant, l’erreur n’a pas pu être facilement corrigée. Bien que Turley soit un habitué des médias et ait dû faire corriger des articles, cette fois, il ne savait pas vers qui se tourner. Après tout, aucun auteur ne s’est trompé. La société à l’origine du bot, OpenAI, avait promis avec la dernière version que ChatGPT devrait “halluciner” moins, mais des tests approfondis indiquent que la version 4 du bot fait encore plus d’erreurs factuelles que son prédécesseur.

En conséquence, le professeur n’est pas le seul à craindre pour sa réputation en raison de fausses déclarations faites par l’IA. Ce n’est que mercredi que “Reuters” a rapporté qu’un maire australien envisageait de poursuivre OpenAI. Le bot AI avait accusé le politicien d’emprisonnement – ​​de tout pour corruption.

Sources:Poste de Washington, Reuter

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.