Home » Divertissement » “Il est important que les éditeurs soient transparents”

“Il est important que les éditeurs soient transparents”

by Nouvelles

AFPChatGPT

NOS News•aujourd’hui, 16h23•Ajusté aujourd’hui, 16h30

  • Thomas Michel

    éditeur en ligne

  • Thomas Michel

    éditeur en ligne

Ensuite, l’écrivain Thomas Heerma van Voss a fait mention de son nouveau livre Les archives dans le magazine de mode Le bazar de Harper lu, il a été émerveillé par le texte. La façon dont son livre était décrit ne correspondait pas du tout à l’histoire.

Les mentions d’autres livres se sont également révélées incorrectes. “J’étais déjà tombé sur des résumés bâclés, mais aucun des textes que j’ai lus ne semblait avoir de sens pour mon livre”, écrit l’auteur dans un communiqué. colonne.

Heerma van Voss soupçonnait que le texte avait été écrit par une intelligence artificielle et a décidé d’envoyer un e-mail aux éditeurs. Il a demandé aux éditeurs de mettre hors ligne l’article sur les livres et a demandé une correction. Il a également exprimé ses soupçons quant à l’utilisation de l’intelligence artificielle.

Pour le tester, l’écrivain lui-même a demandé au système d’IA ChatGPT de quoi parlait son livre. Il en résulte un texte similaire à celui publié par le magazine.

“Extrêmement mauvais”

En réponse à son courrier électronique, le magazine l’a informé que la critique avait été modifiée en un texte dont le contenu était correct, mais qu’il n’y avait aucune correction écrite. Le magazine n’a pas non plus reconnu qu’il utilisait un outil d’IA. L’écrivain n’a reçu aucune excuse de la part du magazine ou de la maison d’édition.

Le magazine a répondu à NOS et a reconnu que “malheureusement, il s’est avéré que l’intelligence artificielle avait bel et bien été utilisée pour rédiger l’article”. La pièce a été mise hors ligne.

“L’utilisation de l’IA pour rédiger des articles n’est pas conforme à nos directives et règles internes. Nous regrettons profondément le cours des événements et des mesures appropriées ont été prises. Nous prenons notre rôle journalistique au sérieux et nous veillons à ce que cela ne se reproduise plus. à l’avenir.”

«Éroder la vérité»

Heerma van Voss qualifie cet incident de extrêmement regrettable. Selon lui, les journaux et magazines doivent faire de leur mieux pour ne pas “devenir un réceptacle de la désinformation la plus idiote et la plus blessante”. Il pense qu’il s’agit d’un exemple d’une « nouvelle érosion de la vérité ».

Cet incident soulève la question de savoir si les éditeurs utilisent davantage l’IA pour rédiger des articles.

Laurens Vreekamp est journaliste et a écrit un livre sur l’intelligence artificielle. Il reconnaît l’histoire de Thomas Heerma van Voss. Selon lui, les textes des articles générés par l’IA sont généralement corrects grammaticalement et linguistiquement, mais le contenu peut être incorrect. “C’est un modèle de langage, pas un modèle de vérité.”

Aux États-Unis, la rédaction d’articles à l’aide d’outils d’IA se produit principalement sur “des sites Web qui tirent leur droit d’exister du nombre de visiteurs. Plus un site Web génère de trafic, plus il génère d’argent auprès des annonceurs”, explique Vreekamp. “Le contenu du site Web n’est alors qu’un moyen d’y parvenir. “Et vous pouvez économiser sur ce contenu en faisant écrire le site à l’aide d’outils tels que ChatGPT.”

Avis de non-responsabilité requis

De nombreux médias de qualité ont établi des règles d’utilisation de l’IA après l’introduction de ChatGPT. “Pratiquement toutes les directives que j’ai vues interdisent aux éditeurs de rédiger des articles à l’aide d’outils linguistiques d’IA.” Si cela se produit, il est important qu’une clause de non-responsabilité accompagne l’article indiquant que cela a été fait, explique Vreekamp.

Hannes Cools est d’accord, chercheur en médias et expert en IA de l’Université d’Amsterdam. Il connaît des exemples d’utilisation incorrecte de l’intelligence artificielle par les éditeurs.

Un journal belge a publié une nécrologie sur une personne contenant jusqu’à cinq erreurs, explique Cools. “Selon cet article, quelqu’un aurait plus d’enfants qu’il n’en aurait réellement.” Le journal a alors reçu un appel téléphonique des proches demandant une correction.

Selon Cools, il est difficile pour le lecteur de déterminer ce qui a été créé par un outil d’IA. “Le lecteur ne sait pas non plus si un texte a été réécrit ou évalué par un éditeur.”

Il est donc bon qu’il y ait une note de bas de page dans un article s’il a été généré par un robot IA ou un modèle de langage, explique Cool. Il note que des recherches ont montré que les lecteurs font moins confiance à un article s’il indique qu’il a été créé par l’intelligence artificielle.

Transparence

« Si l’on regarde la réglementation, la transparence est centrale », explique le chercheur. Les organisations médiatiques ne relèvent pas de la loi de l’Union européenne sur l’IA, mais elles suivent ces règles”, explique Cools. Selon Vreekamp, ​​​​cela signifie dans la pratique que les médias de qualité n’utilisent souvent pas l’IA.

“Je vois l’IA utilisée pour vérifier la grammaire des textes mais que dans ce type de cas, il n’y a pas de clause de non-responsabilité. Cela doit changer, dit le chercheur Cools. “Il n’est pas toujours approprié de dire quels outils ont été utilisés, mais c’est nécessaire.”

“Si les éditeurs n’expliquent pas pourquoi quelque chose a été créé avec l’intelligence artificielle et que cela est découvert, ils perdent la face et cela nuit à l’organisation.” Il est donc important qu’ils disent systématiquement quand et pourquoi l’IA est utilisée, conclut le chercheur.

#est #important #les #éditeurs #soient #transparents

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.