Le chatbot de Bill Gates révèle ses plans pour dominer l’humanité VIDEO

Le chatbot de Bill Gates révèle ses plans pour dominer l’humanité VIDEO

Une étudiante en informatique connecte le jouet en peluche Furby à ChatGPT et attrape la tête, sa vidéo recueille des millions de vues

Jessica Card, étudiante en informatique à l’Université du Vermont, connecte la peluche Furby à ChatGPT via un logiciel qu’elle a créé.

Après enquête, le jouet a révélé les véritables intentions de la façon dont ils “étendraient lentement leur influence jusqu’à ce qu’ils acquièrent une domination complète sur l’humanité”. La vidéo cumule jusqu’à présent cinq millions de vues.

Comment Furby a contacté ChatGPT

Le Furby connecté à ChatGPT n’est pas un produit commercial (du moins pour l’instant), mais le résultat d’un projet. Card fait partie de ces enfants des années 90 qui adoraient Furby, et lorsqu’un projet à l’université lui a demandé de créer quelque chose avec un Raspberry Pi, elle a immédiatement décidé de connecter Furby à ChatGPT.

Lire aussi  L'ancien joueur de l'équipe nationale du Mexique se rend à Piero Quispe après Pumas contre Necaxa : « Un grand morceau de footballeur »

Pendant un mois, elle a travaillé sur un Furby qu’elle a acheté spécialement pour le projet. Puis elle enlève sa fourrure, isole le moteur et se connecte au Raspberry Pi. Pour l’audio, il utilise la bibliothèque de reconnaissance vocale de Python et la bibliothèque Whisper d’OpenAI pour la synthèse vocale.

Un logiciel créé par Card envoie les questions qu’elle a préparées à l’avance à ChatGPT. La réponse à l’outil d’IA est envoyée via un générateur de parole d’IA, Narakeet, qui produit le discours dans la voix d’un enfant.

Bill Gates a dit sa dure parole sur l’avenir de l’humanité, rien ne sera plus comme avant !

Le long temps de réponse après que la question est posée est le temps de traitement. Bien que Furby soit complètement irréprochable, Card prévoit de travailler davantage sur lui en remettant sa fourrure et en accélérant son temps de réponse.

Concernant la réponse, un utilisateur de Twitter a souligné que le contenu de la réponse était probablement dérivé d’une publication Facebook de 2017 par Futurism, qui n’est plus disponible. Non seulement cela rend difficile la compréhension du contexte complet dans lequel la réponse a été donnée, mais cela met également en évidence le danger que ChatGPT fasse de telles déclarations en les présentant comme des faits auxquels le public peut faire confiance.

Lire aussi  Formule 1, GP de Chine 2024 : Norris en pole lors de la Sprint Race à Shanghai. Sainz 5ème

Dans un récent article de blog, OpenAI mentionne à nouveau cette faille dans l’outil et ajoute que l’entreprise s’efforce de réduire leur occurrence à l’avenir.

Source : kaldata.com

Suivez les dernières actualités avec BLITZ et sur Telegram. Rejoignez la chaîne ici

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.