Les limites de la comparaison entre l’intelligence artificielle et le cerveau humain.

Les limites de la comparaison entre l’intelligence artificielle et le cerveau humain.

Depuis quelques années, l’intelligence artificielle (IA, ou AI en anglais), l’apprentissage automatique (machine learning), les réseaux neuronaux artificiels et l’apprentissage profond (deep learning, ou DL) sont de plus en plus présents dans notre quotidien. Ces termes désignent des méthodes, des techniques et des processus qui nous permettent de faire effectuer aux machines des tâches complexes telles que la reconnaissance d’images, la conduite automobile ou la conversation avec un être humain.

Ces tâches semblent comparables à première vue avec l’intelligence artificielle et l’intelligence “naturelle” – humaine. Cependant, à force de rapprochement, nous avons tendance à considérer certains de ces outils, notamment les réseaux neuronaux artificiels, comme des modèles de notre propre cerveau, et les capacités du deep learning comme des modèles de ses fonctions… Mais est-ce qu’une machine est réellement un modèle de notre cerveau simplement parce qu’elle est capable d’accomplir des tâches similaires ?

Prenons une analogie avec une tâche simple : le tri des pièces de monnaie. Il existe des machines purement mécaniques capables de le faire parfaitement. Les humains, quant à eux, sont tout aussi capables de trier des pièces de monnaie… Apprendrions-nous quelque chose sur notre capacité à trier des pièces en observant ces machines ? La question se pose également avec l’IA. Les réseaux neuronaux artificiels sont inspirés par les connaissances acquises en neurosciences et partagent certaines caractéristiques avec nos cellules nerveuses. Notre question est donc de savoir jusqu’où peut aller la comparaison. Quelles sont les limites de ces “modèles” ? Sont-ils suffisamment proches pour être utilisés en neurologie ou en santé mentale ?

Un neurone artificiel, utilisé dans le deep learning, n’a rien de physique. Il s’agit d’une série d’étapes mathématiques effectuées par un ordinateur. Un nœud reçoit des données, provenant soit de sources externes soit de nœuds précédents, qui sont pondérées par leur “poids synaptique”. De manière similaire, un neurone dans notre cerveau reçoit des données par ses synapses, qui sont les points de contact avec les neurones voisins. Selon leur poids, ces synapses auront plus ou moins d’effet sur le neurone en question. Toutes les entrées du neurone sont donc pondérées, et il s’activera ou non en fonction du résultat global.

Les réseaux neuronaux artificiels fonctionnent de manière similaire. La valeur obtenue en sortie d’un nœud peut être utilisée comme valeur d’entrée pour le nœud suivant. Au cours de leur apprentissage, certains neurones se spécialisent progressivement dans certains types d’entrées, tandis que d’autres sont plus sensibles à d’autres types. Cette description permet de reproduire un aspect “fonctionnel” du traitement des informations par un neurone. Ce modèle de neurone formel a été décrit pour la première fois en 1943.

Une fois organisés en réseau pour une application spécifique, les règles d’apprentissage d’un modèle déterminent l’évolution des poids synaptiques. Différentes méthodes permettent d’effectuer cet apprentissage pour une tâche donnée, telles que la rétropropagation de l’erreur ou le calcul évolutionnaire. Ces modèles sont capables “d’apprendre”, de résoudre des problèmes ou d’accomplir des tâches que nous sommes également capables de réaliser, parfois même de manière plus rapide, que ce soit pour des tâches simples ou complexes (reconnaissance de formes, de visages, prédiction des structures de protéines, interprétation du langage et des textes avec ChatGPT, etc.).

Il existe donc différents niveaux de description en fonction des modèles considérés. Certains modèles reproduisent une fonction ou une activité, tandis que d’autres sont capables d’expliquer la dynamique des crises, mais ne sont généralement pas adaptés à la réalisation de tâches spécifiques comme ceux utilisés dans l’IA. C’est l’un ou l’autre ! (Pour le moment.)

Les modèles peuvent essayer d’être les plus proches possible du phénomène étudié (comme l’apprentissage, la mémoire ou les crises d’épilepsie) sans se préoccuper des mécanismes biophysiques permettant leur émergence. Ou bien, au contraire, ils peuvent être conçus afin de fournir une description aussi détaillée que possible de la physiologie à l’échelle considérée (ions, molécules, cellules, etc.). Selon nos objectifs (enseigner, expliquer, découvrir de nouveaux aspects, comprendre, prédire, etc.), nous choisirons ou construirons un modèle adapté. Il est intéressant d’étudier ce que chaque modèle nous apporte en termes de connaissances ou d’applications. Cependant, à l’heure actuelle, il n’existe pas de modèle capable de reproduire tous les aspects du cerveau… à part le cerveau lui-même.
#LIA #pourraitelle #avoir #des #crises #dépilepsie
publish_date]

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.