Pour la première fois, l’IA des réseaux neuronaux atteint l’intelligence humaine

ESPACE — Les réseaux de neurones peuvent désormais « penser » plus comme les humains que jamais auparavant. Les scientifiques démontrent les capacités du système d’intelligence artificielle (IA)
dans une nouvelle étude publiée dans la revue Nature le mercredi 25 octobre 2023.

Cette recherche marque un tournant dans un débat qui dure depuis des décennies sur les sciences cognitives, un domaine qui explore quels types d’ordinateurs représentent le mieux l’esprit humain. Depuis les années 1980, un groupe de scientifiques cognitifs affirme qu’un type d’IA à réseau neuronal n’est pas un modèle viable de l’esprit parce que son architecture ne parvient pas à capturer les caractéristiques clés de la pensée humaine.

Mais avec la formation, les réseaux neuronaux peuvent désormais acquérir des capacités semblables à celles des humains. “Notre travail montre que cet aspect important de l’intelligence humaine peut être acquis par la pratique en utilisant des modèles qui ont longtemps été négligés en raison de leur manque de capacités”, a déclaré Brenden Lake, co-auteur de l’étude. Science en direct.

Le professeur adjoint de psychologie et de science des données à l’Université de New York a déclaré que les réseaux de neurones semblent imiter la structure du cerveau humain, car leurs nœuds de traitement de l’information sont connectés les uns aux autres et leur traitement des données s’effectue en couches hiérarchiques. Mais historiquement, les systèmes d’IA ne se sont pas complètement comportés comme les esprits humains. Il leur manque la capacité de combiner des concepts connus de manière nouvelle, une capacité appelée « composition systématique ».

A lire aussi : La première fois que l’IA réussira à identifier une supernova, les astronomes humains seront-ils éliminés ?




Par exemple, explique Lake, si un réseau neuronal standard apprend les mots « sauter », « deux fois » et « en cercle », il doit lui montrer de nombreux exemples de la façon dont ces mots peuvent être combinés en phrases significatives, telles que « sautez deux fois et sautez en rond. Mais si le système reçoit ensuite un nouveau mot, tel que « spin », il lui faudra voir de nombreux autres exemples pour apprendre à l’utiliser de la même manière.

Dans la nouvelle étude, Lake et le co-auteur Marco Baroni de l’Université Pompeu Fabra de Barcelone ont testé des modèles d’IA et des volontaires humains en utilisant des langages artificiels tels que « dax » et « wif ». Les mots correspondent à des points colorés ou à des fonctions qui manipulent d’une manière ou d’une autre l’ordre séquentiel de ces points. Ainsi, l’ordre des mots détermine l’ordre dans lequel les points colorés apparaissent.

Ainsi, face à une phrase absurde, l’IA et les humains doivent comprendre les règles grammaticales sous-jacentes, qui déterminent quels points correspondent à quels mots. Des volontaires humains ont produit des séquences de points correctes environ 80 % du temps. Lorsqu’ils échouent, ils commettent des types d’erreurs cohérents, comme supposer qu’un mot représente un seul point au lieu d’une fonction qui randomise un ensemble complet de points.

Après avoir testé sept modèles d’IA, Lake et Baroni ont découvert une méthode appelée méta-apprentissage pour la compositionnalité (MLC). Cette méthode permet au réseau neuronal de s’entraîner à appliquer un ensemble différent de règles aux mots nouvellement appris, tout en fournissant des informations indiquant si le réseau neuronal applique correctement ces règles.

Dans ces tests, les réseaux neuronaux formés par MLC ont égalé ou dépassé les performances humaines. Ensuite, lorsque les chercheurs ont ajouté des données sur les erreurs courantes commises par les humains, le modèle d’IA a alors commis les mêmes types d’erreurs que les humains.

Les auteurs ont également comparé MLC à deux modèles basés sur des réseaux neuronaux d’OpenAI, la société à l’origine de ChatGPT. Ils ont constaté que MLC et les humains ont obtenu des résultats nettement meilleurs que le modèle OpenAI lors de tests ponctuels. Les réseaux de neurones avec MLC ont également des tâches supplémentaires, qui impliquent l’interprétation des instructions écrites et du sens des phrases.

“Ils ont eu un succès impressionnant dans cette tâche, en calculant le sens des phrases”, a déclaré Paul Smenesky, professeur de sciences cognitives à Johns Hopkins et chercheur principal principal chez Microsoft Research, qui n’a pas participé à la nouvelle étude.

A lire aussi : Si l’IA trouve d’abord des extraterrestres, d’autres problèmes pourraient survenir

Cependant, a-t-il ajouté, la capacité de généralisation du modèle reste limitée. “Cela peut fonctionner sur les types de phrases sur lesquels il a été formé, mais il ne peut pas être généralisé à de nouveaux types de phrases”, a déclaré Smolensky. Science en direct.

2023-10-26 04:47:00
1698287637


#Pour #première #fois #lIA #des #réseaux #neuronaux #atteint #lintelligence #humaine

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.