Une étudiante en informatique connecte le jouet en peluche Furby à ChatGPT et attrape la tête, sa vidéo recueille des millions de vues
Vermont, États-Unis08 avr. 2023, 15:39 2912 lus 0 commentaire
Jessica Card, étudiante en informatique à l’Université du Vermont, connecte la peluche Furby à ChatGPT via un logiciel qu’elle a créé.
Après enquête, le jouet a révélé les véritables intentions de la façon dont ils “étendraient lentement leur influence jusqu’à ce qu’ils acquièrent une domination complète sur l’humanité”. La vidéo cumule jusqu’à présent cinq millions de vues.
j’ai connecté chatgpt à un furby et je pense que cela pourrait être le début de quelque chose de mauvais pour l’humanité pic.twitter.com/jximZe2qeG
– carte jessica (@jessicard) 2 avril 2023
Comment Furby a contacté ChatGPT
Le Furby connecté à ChatGPT n’est pas un produit commercial (du moins pour l’instant), mais le résultat d’un projet. Card fait partie de ces enfants des années 90 qui adoraient Furby, et lorsqu’un projet à l’université lui a demandé de créer quelque chose avec un Raspberry Pi, elle a immédiatement décidé de connecter Furby à ChatGPT.
Pendant un mois, elle a travaillé sur un Furby qu’elle a acheté spécialement pour le projet. Puis elle enlève sa fourrure, isole le moteur et se connecte au Raspberry Pi. Pour l’audio, il utilise la bibliothèque de reconnaissance vocale de Python et la bibliothèque Whisper d’OpenAI pour la synthèse vocale.
Un logiciel créé par Card envoie les questions qu’elle a préparées à l’avance à ChatGPT. La réponse à l’outil d’IA est envoyée via un générateur de parole d’IA, Narakeet, qui produit le discours dans la voix d’un enfant.
Bill Gates a dit sa dure parole sur l’avenir de l’humanité, rien ne sera plus comme avant !
Le long temps de réponse après que la question est posée est le temps de traitement. Bien que Furby soit complètement irréprochable, Card prévoit de travailler davantage sur lui en remettant sa fourrure et en accélérant son temps de réponse.
Concernant la réponse, un utilisateur de Twitter a souligné que le contenu de la réponse était probablement dérivé d’une publication Facebook de 2017 par Futurism, qui n’est plus disponible. Non seulement cela rend difficile la compréhension du contexte complet dans lequel la réponse a été donnée, mais cela met également en évidence le danger que ChatGPT fasse de telles déclarations en les présentant comme des faits auxquels le public peut faire confiance.
Dans un récent article de blog, OpenAI mentionne à nouveau cette faille dans l’outil et ajoute que l’entreprise s’efforce de réduire leur occurrence à l’avenir.
Source : kaldata.com
Suivez les dernières actualités avec BLITZ et sur Telegram. Rejoignez la chaîne ici