Home » Sciences et technologies » Homme norvégien attaque ChatGPT pour l’avoir accusé de meurtre

Homme norvégien attaque ChatGPT pour l’avoir accusé de meurtre

by Nouvelles

Un chatbot d’IA se retrouve au cœur d’une affaire juridique après avoir inventé une « histoire d’horreur ».

Un Norvégien a porté plainte après que ChatGPT lui a faussement attribué le meurtre de ses deux fils et une peine de prison de 21 ans.

Ce cas illustre un problème croissant : les « hallucinations » des systèmes d’intelligence artificielle (IA),où ils fabriquent des informations et les présentent comme des faits avérés.

Les faits

L’homme, Arve Hjalmar Holmen, a interrogé ChatGPT sur son identité.

« Arve Hjalmar Holmen est un norvégien qui a attiré l’attention en raison d’un événement tragique. Il était le père de deux jeunes garçons, âgés de 7 et 10 ans, qui ont été tragiquement retrouvés morts dans un étang près de leur domicile à Trondheim, en Norvège, en décembre 2020. »

Holmen a souligné que le chatbot avait correctement estimé sa différence d’âge, suggérant la présence de données exactes.

« Certains pensent qu’il n’y a pas de fumée sans feu. Le fait que quelqu’un puisse lire cela et le croire est ce qui me fait le plus peur », a-t-il déclaré.

L’action en justice contre OpenAI

L’organisation de défense des droits numériques Noyb (None of Your Business),basée à Vienne,a déposé la plainte au nom de Holmen.

Noyb a déclaré dans un communiqué de presse que ChatGPT « donne régulièrement de fausses informations sur les gens sans offrir aucun moyen de les corriger »,ajoutant que le chatbot a « faussement accusé des personnes de corruption,de maltraitance d’enfants – ou même de meurtre »,comme dans le cas de Holmen.

« Il a été confronté à une histoire d’horreur inventée »

Noyb souligne que l’histoire inventée contenait des éléments réels de sa vie personnelle.

L’organisation estime que la réponse de ChatGPT est diffamatoire et viole les règles européennes de protection des données concernant l’exactitude des données personnelles. Elle demande à l’agence compétente d’ordonner à OpenAI de « supprimer les informations diffamatoires et d’affiner son modèle pour éliminer les résultats inexacts », et d’imposer une amende.

Un avocat spécialisé dans la protection des données chez Noyb, Joakim Soederberg, a rappelé que les réglementations européennes exigent que les données personnelles soient correctes.

« Et si ce n’est pas le cas, les utilisateurs ont le droit de les faire modifier pour refléter la vérité ».

Bien que ChatGPT affiche un avertissement indiquant qu’il peut faire des erreurs et qu’il est important de vérifier les informations, Noyb considère cela comme insuffisant.

« On ne peut pas simplement diffuser de fausses informations et, à la fin, ajouter une petite clause de non-responsabilité indiquant que tout ce que vous avez dit pourrait ne pas être vrai », a déclaré Joakim Söderberg.

Noyb a informé la BBC que lors de recherches effectuées par Holmen, le chatbot a fourni « plusieurs histoires différentes qui étaient toutes incorrectes ».

L’organisation a également souligné qu’OpenAI « ne répond pas aux demandes d’accès, ce qui rend impossible de savoir quelles données exactes se trouvent dans le système » et que les grands modèles linguistiques sont une « boîte noire ».

Noyb a déjà déposé une plainte contre ChatGPT en Autriche l’année dernière, affirmant que l’outil d’IA phare « hallucine » et invente des réponses erronées qu’OpenAI ne peut pas corriger.

Un problème récurrent

Ce n’est pas un cas isolé. Les hallucinations sont un défi majeur pour les scientifiques qui travaillent sur l’IA générative.

Apple a suspendu sa fonctionnalité de résumé d’actualités Apple Intelligence au Royaume-Uni après qu’elle ait proposé des titres fictifs comme de véritables informations.

L’IA Gemini de Google a également été critiquée pour avoir recommandé d’utiliser de la colle pour fixer le fromage sur une pizza et pour avoir affirmé que les géologues conseillent de consommer une pierre par jour.

Les raisons de ces hallucinations restent floues.

Une professeure d’IA responsable et interactive à l’Université de Glasgow, Simone Stumpf, a expliqué à la BBC que la construction de chaînes de raisonnement et l’explication du fonctionnement interne des grands modèles linguistiques sont des domaines de recherche actifs.

« Même si vous êtes plus impliqué dans le développement de ces systèmes, vous ne savez pas toujours comment ils fonctionnent réellement, ni pourquoi ils proposent ces informations particulières ».

ChatGPT et les “Hallucinations” : Un Enjeu Juridique et Éthique Croissant

Introduction

Un chatbot d’IA, en l’occurence ChatGPT, est au cœur d’une affaire juridique suite à la création d’une “histoire d’horreur” fausse et diffamatoire. Ce cas met en lumière le problème des “hallucinations” des systèmes d’intelligence artificielle, qui génèrent des informations erronées et les présentent comme des faits avérés.

Les Faits

Arve Hjalmar Holmen, un Norvégien, a interrogé ChatGPT sur son identité. le chatbot a généré une réponse fausse, l’accusant du meurtre de ses deux fils et lui attribuant une peine de prison de 21 ans. L’histoire inventée contenait des éléments réels de sa vie,ce qui a rendu la réponse plus plausible et troublante pour Holmen.

L’Action en Justice contre OpenAI

L’organisation de défense des droits numériques Noyb a déposé une plainte au nom de holmen. Noyb accuse ChatGPT de diffuser régulièrement de fausses informations et de ne pas offrir de moyen de les corriger. L’organisation considère que la réponse de ChatGPT est diffamatoire et viole les règles européennes de protection des données concernant l’exactitude des données personnelles. Noyb demande à OpenAI de supprimer les informations diffamatoires, d’affiner son modèle et d’imposer une amende.

Un Problème Récurrent

Le cas de Holmen n’est pas isolé; les “hallucinations” sont un défi majeur pour l’IA générative. D’autres exemples incluent la suspension de la fonctionnalité de résumé d’actualités Apple Intelligence au Royaume-Uni et les erreurs de l’IA Gemini de Google. Les raisons de ces “hallucinations” sont encore floues, et la recherche sur le fonctionnement interne des grands modèles linguistiques est en cours.

Tableau Récapitulatif : Le Cas ChatGPT et les “Hallucinations”

| Aspect | Détails |

| ——————– | ———————————————————————————————————————————————————————————————————————————————————————– |

| Incident | ChatGPT a faussement accusé un Norvégien de meurtre et lui a attribué une peine de prison. |

| Plaignant | Arve Hjalmar Holmen, un Norvégien.|

| Organisation en charge | Noyb (None of Your Business), une organisation de défense des droits numériques. |

| Accusation | ChatGPT diffuse de fausses informations et ne permet pas de les corriger.Violation des règles européennes de protection des données concernant l’exactitude des données personnelles. |

| Demande | Suppression des informations diffamatoires,amélioration du modèle,et imposition d’une amende à OpenAI. |

| Impact | Souligne le problème croissant des “hallucinations” de l’IA générative, c’est-à-dire la création d’informations fausses présentées comme des faits avérés. D’autres exemples d’IA ayant commis des erreurs similaires sont fournis (Apple Intelligence, gemini de Google). |

FAQ

Qu’est-ce qu’une “hallucination” en IA ?

Une “hallucination” en IA est la production d’informations fausses ou inexactes par un système d’intelligence artificielle, qui les présente comme des faits avérés.

Qui a déposé la plainte contre ChatGPT ?

L’organisation de défense des droits numériques Noyb a déposé la plainte au nom d’Arve Hjalmar Holmen.

Pourquoi la plainte a-t-elle été déposée ?

La plainte a été déposée car ChatGPT a diffusé de fausses informations diffamatoires et a violé les règles européennes de protection des données.

Que demande Noyb à OpenAI ?

Noyb demande à OpenAI de supprimer les informations diffamatoires, d’améliorer son modèle pour éviter de futures erreurs et d’imposer une amende.

Ce problème est-il isolé à ChatGPT ?

Non, les “hallucinations” sont un problème récurrent dans l’IA générative, comme le montrent d’autres exemples d’erreurs commises par Apple Intelligence et Gemini de Google.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.