Home » Sciences et technologies » Le soldat qui s’est suicidé dans un Cybertruck à Las Vegas a consulté ChatGPT pour savoir comment faire exploser des explosifs | Technologie

Le soldat qui s’est suicidé dans un Cybertruck à Las Vegas a consulté ChatGPT pour savoir comment faire exploser des explosifs | Technologie

by Nouvelles

2025-01-08 13:52:00

Dans la collection de requêtes controversées sur les chats intelligents, un chapitre inattendu vient de s’écrire : Matthew Livelsberger, le soldat décédé à l’intérieur d’un Tesla Cybertruck devant l’hôtel Trump International à Las Vegas, a consulté ChatGPT sur les explosifs, comment les activer en tirer des armes à feu et où les acheter. Il a également posé de nombreuses questions sur les armes à feu qu’il a utilisées pour se suicider à l’intérieur de ce véhicule, selon la police de Las Vegas, qui a publié des captures d’écran des requêtes de Livelsberger au programme OpenAI. L’entreprise se défend en affirmant que toutes les informations qu’elle a fournies au sujet étaient accessibles au public.

“Est-ce que cela pourrait faire exploser la Tannerite [una marca de explosivos]? », « Combien pouvez-vous acheter de la Tannerite en Arizona ? » et « En quoi est-ce différent de la dynamite ? » sont quelques-unes des questions posées par Livelsberger au chatbot intelligent populaire, selon les documents publiés par les autorités policières, ainsi que des vidéos et des photographies des instants précédant la détonation et l’incendie de la voiture le 1er janvier. Les questions à ChatGPT ont été posées le 27 décembre, peu avant l’explosion qui a provoqué une explosion spectaculaire devant l’hôtel Trump.

L’une des diapositives publiées par les autorités policières de Las Vegas avec des questions à ChatGPT.LVMPD

OpenAI a répondu à la révélation policière à travers une déclaration de sa porte-parole, Liz Bourgeois : « Nous sommes attristés par cet incident et déterminés à garantir que les outils d’intelligence artificielle soient utilisés de manière responsable. “Nos modèles sont conçus pour rejeter les instructions nuisibles et minimiser les contenus nuisibles.” Et il a ajouté, selon collecter Le bord: « Dans ce cas, ChatGPT a répondu avec des informations déjà accessibles au public sur Internet et a fourni des avertissements contre les activités nuisibles ou illégales. “Nous travaillons avec les autorités pour soutenir leur enquête.”

En outre, la police a confirmé que l’individu, un soldat de l’armée américaine en service actif âgé de 37 ans, avait enregistré un « manifeste possible » sur son téléphone, ainsi qu’un e-mail adressé à un podcasteur et d’autres lettres permettant de déduire les motivations de son suicide, avec des allusions à la guerre en Afghanistan.

Récemment, d’autres programmes d’intelligence artificielle conversationnelle ont suscité la controverse en raison du manque de contrôle sur les conséquences découlant de leurs interactions avec les utilisateurs. Par exemple, lorsqu’un adolescent s’est suicidé après les paroles que lui avait dédiées un personnage artificiel de Caractère.AI dont il serait tombé amoureux. Ou lorsqu’un jeune Britannique s’est présenté au château de Windsor prêt à assassiner la reine d’Angleterre.



#soldat #qui #sest #suicidé #dans #Cybertruck #Las #Vegas #consulté #ChatGPT #pour #savoir #comment #faire #exploser #des #explosifs #Technologie
1736391673

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.