Le créateur d’iPod, fondateur de Nest Labs et investisseur Tony Fadell a pris une photo du PDG d’OpenAI, Sam Altman, mardi lors d’une interview animée à TechCrunch Disrupt 2024 à San Francisco. Parlant de sa compréhension de l’histoire plus longue du développement de l’IA avant l’engouement pour le LLM et des graves problèmes liés aux hallucinations du LLM, il a déclaré : « Je fais de l’IA depuis 15 ans, les gens, je ne fais pas que dire de la merde – je Je ne suis pas Sam Altman, d’accord ?
Ce commentaire a suscité un murmure de « oohs » surpris de la part de la foule choquée, au milieu d’une petite poignée d’applaudissements.
Fadell était sur une lancée au cours de son interview, abordant un certain nombre de sujets allant de quel genre de « connards » peuvent produire d’excellents produits à ce qui ne va pas avec les LLM d’aujourd’hui.
Tout en admettant que les LLM sont « parfaits pour certaines choses », il a expliqué qu’il restait de sérieuses préoccupations à résoudre.
« Les LLM essaient d’être quelque chose de « général » parce que nous essayons de faire de la science-fiction une réalité », a-t-il déclaré. “[LLMs are] un je-sais-tout… Je déteste les je-sais-tout.
Au lieu de cela, Fadell a suggéré qu’il préférerait utiliser des agents d’IA formés sur des choses spécifiques et plus transparents sur leurs erreurs et leurs hallucinations. De cette façon, les gens pourraient tout savoir sur l’IA avant de les « embaucher » pour le travail spécifique à accomplir.
«Je les embauche pour… m’éduquer, je les embauche pour être copilote avec moi, ou je les embauche pour me remplacer», a-t-il expliqué. « Je veux savoir de quoi il s’agit », ajoutant que les gouvernements devraient s’impliquer pour imposer une telle transparence.
Autrement, a-t-il souligné, les entreprises utilisant l’IA mettraient leur réputation en jeu à cause de « certaines conneries technologiques », a-t-il déclaré.
“En ce moment, nous sommes tous en train d’adopter cette chose et nous ne savons pas quels problèmes cela pose”, a souligné Fadell. Il a également noté qu’un rapport récent indiquait que les médecins utilisant ChatGPT pour créer des rapports sur les patients avaient des hallucinations chez 90 % d’entre eux. «Ceux-ci pourraient tuer des gens», a-t-il poursuivi. “Nous utilisons ce truc et nous ne savons même pas comment ça marche.”
(Fadell semblait faire référence au récent rapport dans lequel des chercheurs avaient découvert que des chercheurs de l’Université du Michigan étudiant les transcriptions de l’IA avaient découvert un nombre excessif d’hallucinations, ce qui pourrait être dangereux dans des contextes médicaux.)
Le commentaire sur Altman a suivi lorsqu’il a partagé avec la foule qu’il travaillait avec les technologies d’IA depuis des années. Nest, par exemple, a utilisé l’IA dans son thermostat en 2011.
“Nous ne pouvions pas parler d’IA, nous ne pouvions pas parler d’apprentissage automatique”, a noté Fadell, “parce que les gens auraient peur – ‘Je ne veux pas d’IA chez moi’ – maintenant tout le monde veut de l’IA partout. .»
#Tony #Fadell #sen #prend #Sam #Altman #dans #une #interview #avec #TechCrunch #Disrupt