L’engouement pour l’IA a frappé les chercheurs qui tentent de comprendre comment notre cerveau traite le langage. La dernière technique consiste à essayer de relier la sortie des grands modèles linguistiques (ou LLM comme ChatGPT) aux zones cérébrales observées lors de l’exécution de différents types de tâches linguistiques. Lors du congrès annuel de la Société de neurobiologie du langage, un colloque a fait du sujet de l’IA et du langage un sujet de débat considérable.
Modèles de langage
Les LLM sont très puissants. Plutôt que 80 ou 100 ans, leur expérience équivaut à près de 400 ans, triplant ou quadruplant facilement l’expérience totale de l’humain moyen. Le symposium particulier sur l’utilisation de ces modèles puissants pour prédire l’activité cérébrale chez l’homme a suscité de sérieuses questions de la part du public. En particulier, j’ai été frappé par la façon dont l’utilisation de ces modèles ignore à la fois les informations biologiques et évolutives qui peuvent nous aider à comprendre le langage humain. Notre espèce existe dans son incarnation actuelle depuis plus de 40 000 ans. Nous pouvons ajouter à cela que nos ancêtres ont dépensé plusieurs milliers de dollars supplémentaires pour essayer de communiquer entre eux. Nous pouvons également ajouter à cela le fait qu’en tant qu’humains, nous devons apprendre le langage dès notre enfance. En ce sens, le cerveau humain et notre culture ont conduit à d’incroyables capacités cognitives, au premier rang desquelles la capacité d’utiliser le langage. Lorsque le symposium s’est terminé et qu’ils ont commencé à poser des questions, je me suis levé, perplexe quant à ce que les LLM pourraient nous aider à conclure sur le langage humain. J’ai noté que Elizabeth Batesmon directeur de thèse et célèbre spécialiste des sciences cognitives, avait dit que les réseaux devaient « avoir un corps et une vie ». Je ne comprends tout simplement pas clairement ce que ces modèles nous disent sur le langage humain. À la fin du symposium, la discussion s’est transformée en un véritable débat pendant la pause-café. C’est à ce moment-là que j’ai spontanément tiré un exemple de l’élection présidentielle en cours aux États-Unis. Il y a ici une analogie, que je vais utiliser pour essayer de faire la lumière sur les réticences que beaucoup d’entre nous ont quant à l’utilisation de l’IA pour comprendre comment le cerveau humain traite le langage. Tout d’abord, considérons les sondages et les clés.
Sondages contre clés
À l’avenir, Lichtman a commencé à appliquer son modèle. Il a prédit avec justesse la réélection de Ronald Reagan en 1984, alors que beaucoup doutaient qu’un président septuagénaire soit réélu. Il avait prédit l’élection de Donald Trump en 2016, alors que beaucoup pensaient qu’Hillary Clinton gagnerait. Quatre ans plus tard, il prédisait que Trump perdrait face à Biden et il a fait sa prédiction pour les prochaines élections début septembre 2024. Quelles que soient vos inclinations politiques, Lichtman s’en fiche. Son seul travail consiste à prédire le vainqueur de la prochaine élection en fonction de ses clés. Il y en a d’autres, comme Nate Silver, qui ont utilisé une approche différente. Le modèle de Silver est basé sur de nombreux sondages différents dans différents États. Il prend également en compte d’autres facteurs. Il a défendu la puissance de ces modèles dans son livre, Le signal et le bruit. Il utilise des mathématiques et des statistiques très sophistiquées pour deviner qui va gagner. Lichtman utilise 13 questions oui/non. En 2016, Silver a donné à Clinton 80 % de chances de remporter les élections. Lichtman qui avait prédit qu’elle perdrait.
Cela nous ramène à mon point de départ. Quelle approche devrions-nous utiliser pour comprendre les humains ? Les modèles sophistiqués comme ceux de Silver ou d’IA comme celui utilisé dans les LLM pour le langage sont-ils meilleurs ? L’analogie est intéressante. Le langage humain existe depuis TRÈS longtemps. Nous avons résolu le problème de la communication humaine et nous l’avons plutôt bien fait. Les élections présidentielles américaines ne durent pas depuis aussi longtemps, mais remonter le temps a donné d’excellents résultats.
Ma question est donc la suivante : pourquoi pensons-nous qu’un nouveau jouet nous rapporte plus qu’un vieux truc ?
En essayant de comprendre comment le cerveau humain gère le langage, nous pourrions simplement nous inspirer de l’approche de Lichtman. Revenons en arrière dans l’histoire. Dans le cas du langage, notre espèce et notre histoire individuelle d’apprentissage des langues peuvent nous aider à donner un sens aux choses. Maintenant, vous vous demandez peut-être si je dis que nous arrêtons simplement d’utiliser les LLM pour le langage ou des modèles avancés basés sur des sondages pour les élections. Bien sûr que non. Ce sont des modèles et ils nous disent quelque chose de la réalité. Ce n’est pas dans l’utilisation de ces techniques avancées que l’on échoue. C’est en pensant que ces techniques avancées sont en quelque sorte supérieures aux astuces « de la vieille école » que nous utilisons pour comprendre comment le monde fonctionne. Bien qu’il existe de nombreux nouveaux jouets brillants que nous pouvons utiliser aujourd’hui, les vieux trucs ennuyeux du passé ne sont pas si mauvais. Si vous pensez que je me trompe, demandez simplement à Alan Lichtman.
#langage #humain #élections #présidentielles #américaines