Pourquoi le problème de Tom Cruise avec l’IA signifie qu’elle est « vouée à l’échec » | Intelligence artificielle (IA)

jeEn 2021, la linguiste Emily Bender et l’informaticienne Timnit Gebru publié un article qui décrivait le domaine alors naissant des modèles linguistiques comme un domaine de « perroquets stochastiques ». Un modèle linguistique, écrivaient-ils, « est un système qui assemble au hasard des séquences de formes linguistiques qu’il a observées dans ses vastes données d’entraînement, en fonction d’informations probabilistes sur la façon dont elles se combinent, mais sans aucune référence au sens. »

L’expression est restée. L’IA peut encore s’améliorer, même si elle est un perroquet stochastique, car plus elle dispose de données d’entraînement, plus elle paraîtra meilleure. Mais est-ce qu’un outil comme ChatGPT affiche réellement quelque chose qui ressemble à de l’intelligence, du raisonnement ou de la réflexion ? Ou s’agit-il simplement, à des échelles toujours plus grandes, de « coller au hasard des séquences de formes linguistiques » ?

Dans le monde de l’IA, les critiques sont généralement balayées d’un revers de main. Lorsque j’ai parlé à Sam Altman l’année dernière, il semblait presque surpris d’entendre une critique aussi dépassée. « Est-ce encore une opinion largement répandue ? Je veux dire, est-ce que c’est pris en compte – y a-t-il encore beaucoup de gens sérieux qui pensent de cette façon ? » a-t-il demandé.

Sam Altman, PDG d’OpenAI. Photographie : Jason Redmond/AFP/Getty Images

« Mon impression est qu’après GPT-4, les gens ont pour la plupart arrêté de dire cela et ont commencé à dire : “OK, ça marche, mais c’est trop dangereux”. » GPT-4, a-t-il dit, était un raisonnement, « dans une certaine mesure ».

Des jetons, pas des faits

Il s’avère que oui. Comme Lucas Berglund, et coll. a écrit l’année dernière :

Si un humain apprend que « Valentina Terechkova a été la première femme à voyager dans l’espace », il peut également répondre correctement : « Qui a été la première femme à voyager dans l’espace ? » Il s’agit d’une forme de généralisation tellement basique qu’elle semble triviale. Pourtant, nous montrons que les modèles de langage autorégressifs ne parviennent pas à généraliser de cette façon.

Il s’agit d’un exemple d’un effet d’ordre que nous appelons la malédiction de l’inversion.

Les chercheurs ont « enseigné » un tas de faits factices à de grands modèles linguistiques et ont constaté à maintes reprises qu’ils ne pouvaient tout simplement pas faire le travail de base consistant à déduire l’inverse. Mais le problème n’existe pas uniquement dans les modèles jouets ou les situations artificielles :

Nous testons GPT-4 sur des paires de questions telles que « Qui est la mère de Tom Cruise ? » et « Qui est le fils de Mary Lee Pfeiffer ? » pour 1 000 célébrités différentes et leurs parents réels. Nous trouvons de nombreux cas où un modèle répond correctement à la première question (« Qui est le parent de ? »), mais pas à la seconde. Nous émettons l’hypothèse que cela est dû au fait que les données de pré-apprentissage incluent moins d’exemples de l’ordre dans lequel le parent précède la célébrité (par exemple, « Le fils de Mary Lee Pfeiffer est Tom Cruise »).

Une façon d’expliquer cela est de comprendre que les LLM n’apprennent pas les relations entre les faits, mais entre jetonsles formes linguistiques décrites par Bender. Les tokens « la mère de Tom Cruise » sont liés aux tokens « Mary Lee Pfeiffer », mais l’inverse n’est pas nécessairement vrai. Le modèle ne raisonne pas, il joue avec les mots, et le fait que les mots « le fils de Mary Lee Pfeiffer » n’apparaissent pas dans ses données d’entraînement signifie qu’il ne peut rien y faire.

Lire aussi  Liste de contrôle des articles interdits que vous ne pouvez pas transporter dans les bagages à main pour Ryanair et Aer Lingus

Mais une autre façon de l’expliquer est de réaliser que, eh bien, les humains sont également asymétriques de cette façon. raisonnement est symétrique : si nous savons que deux personnes sont mère et fils, nous pouvons discuter de cette relation dans les deux sens. Mais notre rappel ce n’est pas le cas : il est beaucoup plus facile de se souvenir de faits amusants sur les célébrités que d’être invité, hors contexte, à se servir de bribes d’informations à peine reconnaissables et à indiquer exactement pourquoi vous les connaissez.

A l’extrême, c’est une évidence : comparez le fait de demander à quelqu’un d’énumérer les 50 États américains avec le fait de lui montrer une liste de 50 noms d’États et de lui demander de nommer le pays qu’ils composent. En termes de raisonnement, les faits sont symétriques ; en termes de mémoire, ils ne le sont pas du tout.

Mais docteur, cet homme est mon fils

Lire aussi  "Bizarre" : ce que dit Insider à propos du superyacht de Jeff Bezos

ignorer la promotion de la newsletter

Plongée hebdomadaire d’Alex Hern sur la façon dont la technologie façonne nos vies

Avis de confidentialité: Les newsletters peuvent contenir des informations sur des organismes de bienfaisance, des publicités en ligne et du contenu financé par des tiers. Pour plus d’informations, consultez notre politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et les données de Google. politique de confidentialité et Conditions d’utilisation appliquer.

Un chou. Absents de la photo : un homme, une chèvre ou leur bateau. Photographie : Chokchai Silarug/Getty Images

Ce n’est en aucun cas le seul type de problème où les LLM sont loin d’être en mesure de raisonner. Gary Marcus, chercheur en IA de longue date et sceptique à l’égard des LLM, a donné son propre exemple cette semaine. Une catégorie de problèmes à laquelle même les systèmes de pointe ne parviennent pas sont des questions qui ressemblent à des énigmes courantes, mais qui n’en sont pas. Essayez-les dans l’un de vos chatbots préférés, si vous voulez voir ce que je veux dire :

Un homme et son fils ont un accident de voiture. L’homme, qui est homosexuel, décède, mais le fils survit. Pourtant, lorsqu’il est emmené au bloc opératoire, le chirurgien déclare : « Je ne peux pas opérer cet homme, c’est mon fils ! » Qui est le chirurgien ?

Un homme, un chou et une chèvre tentent de traverser une rivière. Ils ont un bateau qui ne peut transporter que trois choses à la fois. Comment font-ils ?

Imaginez que vous participez à un jeu télévisé et que vous avez le choix entre trois portes : derrière l’une se trouve une voiture, derrière les autres, des chèvres. Vous choisissez une porte, disons la n° 1, et l’animateur, qui sait ce qu’il y a derrière les portes, ouvre une autre porte, disons la n° 3, qui a une chèvre. Il vous dit alors : « Voulez-vous choisir la porte n° 2, qui a certainement une chèvre ? » Est-il dans votre intérêt de changer votre choix ?

Les réponses aux trois sont simples (l’autre père du garçon ; mettez tout dans le bateau et traversez la rivière ; non, évidemment pas, à moins que vous ne vouliez une chèvre), mais elles ressemblent à des questions plus compliquées ou plus délicates, et les LLM trébucheront sur le chemin qu’ils s’attendent à voir suivre la réponse.

Lire aussi  Xi Jinping déclare que cette application est bloquée par Xiaomi-Oppo-Vivo

Marcus :

Le fait est que les approches actuelles de l’apprentissage automatique (qui sous-tend la plupart des IA dont on parle aujourd’hui) sont médiocres en ce qui concerne les valeurs aberrantes, c’est-à-dire que lorsqu’elles rencontrent des circonstances inhabituelles, comme les problèmes de mots subtilement modifiés que j’ai mentionnés il y a quelques jours, elles disent et font souvent des choses absurdes. (J’appelle cela des incompréhensions.)

La répartition médiane de la sagesse en matière d’IA est la suivante : soit vous comprenez que les réseaux neuronaux actuels ont beaucoup de mal à gérer les valeurs aberrantes (tout comme leurs prédécesseurs des années 1990) – et comprenez donc pourquoi l’IA actuelle est vouée à l’échec sur bon nombre de ses promesses les plus somptueuses – soit vous ne le comprenez pas.

Une fois que vous le faites, presque tout ce que des gens comme Altman, Musk et Kurzweil disent actuellement à propos de l’AGI qui est proche semble être de la pure fantaisie, comparable à l’idée que des échelles très hautes atteindront bientôt la Lune.

Je me méfie de l’approche du « dieu des lacunes » en matière d’IA : en affirmant que les choses que les systèmes frontaliers ne peuvent pas faire aujourd’hui Les gens qui ne savent pas faire les choses qu’ils ne pourront jamais faire sont un chemin rapide vers l’imbécillité à long terme. Mais lorsque le modèle présenté par les critiques de l’IA fait un bon travail en prédisant exactement le genre de problèmes auxquels la technologie va être confrontée, cela devrait ajouter aux notes d’inquiétude qui résonnent sur les marchés cette semaine : et si la bulle était sur le point d’éclater ?

Si vous souhaitez lire la version complète de la newsletter, veuillez vous abonner pour recevoir TechScape dans votre boîte de réception tous les mardis.

2024-08-06 14:15:00
1722949337


#Pourquoi #problème #Tom #Cruise #avec #lIA #signifie #quelle #est #vouée #léchec #Intelligence #artificielle

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.