L’intelligence artificielle : de Deep Blue à ChatGPT

L’intelligence artificielle : de Deep Blue à ChatGPT

Ce contenu est produit par l’Université Laval.

Lancé à la fin novembre 2022, ChatGPT a rapidement ébahi la planète par ses performances ahurissantes. L’application de génération de texte a effectivement su leurrer nombre de lecteurs, même parmi les plus attentifs, qui n’ont pu distinguer les textes produits par l’intelligence artificielle (IA) de ceux écrits par un être humain. Mais comment ce que plusieurs croyaient hier encore impossible est-il devenu si vite réalité?

«L’explication à cette montée rapide de l’intelligence artificielle et de ChatGPT peut être vue comme un triangle dont les trois sommets sont aussi importants. Premièrement, la puissance de calcul des ordinateurs a beaucoup augmenté. Deuxièmement, la quantité de données de qualité pour entraîner les réseaux de neurones a explosé. Troisièmement, il y a eu plusieurs innovations dans l’architecture des réseaux de neurones», expose le professeur Nicolas Doyon.

Invité par la La formation continue de la Faculté des sciences et de génie à prononcer une conférence grand public sur le sujet, ce professeur du Département de mathématiques et de statistique et chercheur au Centre de recherche CERVOa évoqué quelques jalons de l’histoire de l’IA et vulgarisé certains principes scientifiques et mathématiques sur lesquels repose le succès de la célèbre application informatique.

Une machine championne d’échecs

L’un des plus grands coups d’éclat de l’intelligence artificielle remonte à 1996 lorsque l’ordinateur Deep Blue a réussi à battre le champion du monde des échecs Garry Kasparov. Deep Blue était programmé pour créer un arbre de possibilités, attribuer une valeur aux positions finales des différentes branches de l’arbre, puis déterminer le meilleur coup possible.

Cette approche qui fonctionnait bien aux échecs était toutefois moins adaptée au jeu de go, dont le plateau forme un quadrillé de 19 x 19 – ce qui donne beaucoup plus de possibilités de coups que le format 8 x 8 des échecs. Même pour un ordinateur, l’arbre de possibilités devenait trop grand. «C’est pourquoi, raconte Nicolas Doyon, des chercheurs se sont alors dit: « Ça ne ressemble pas du tout à notre façon de penser. Comment pourrait-on s’inspirer du fonctionnement du cerveau et des neurones humains pour améliorer l’intelligence artificielle? »»

Imiter les neurones

En étudiant le fonctionnement des neurones humains, on a découvert qu’ils ne réagissent pas à tous les messages qu’ils reçoivent. Un message doit atteindre un seuil minimal pour que le neurone émette ce qu’on appelle un potentiel d’action, qui, lui, a toujours la même force et la même forme, quelle que soit l’intensité du message initial. Ce potentiel d’action est transmis au neurone suivant grâce à une synapse. C’est la loi du tout ou rien.

Toutefois, les synapses ne servent pas uniquement à transmettre l’information d’un neurone à l’autre; leur plasticité jouerait un rôle central dans l’apprentissage. Les chercheurs ont, en effet, remarqué que la force de connexion des synapses évolue avec le temps. «De manière simplifiée, plus une synapse est utilisée, c’est-à-dire plus elle propage un potentiel d’action vers le neurone suivant, plus elle devient forte. On voit bien au microscope que, lorsqu’une personne apprend, l’épine dendritique, une région du neurone, devient plus grosse. Bref, en devenant plus grosse et plus forte, la synapse modifie peu à peu notre manière de penser», spécifie le professeur.

Comment représenter mathématiquement ces faits biologiques? «Une des manières de traduire en mathématique la loi du tout ou rien, répond Nicolas Doyon, est d’utiliser la fonction de Heaviside.» Souvent, en mathématiques, les fonctions passent de 0 à 1 de manière continue. «La fonction de Heaviside, quant à elle, précise-t-il, est une fonction qui vaut 0 jusqu’à ce que l’entrée de la fonction atteigne un certain seuil. Alors, elle passe soudainement à 1.»

Le tout ou rien peut être représenté mathématiquement par la fonction de Heaviside.

«Pour représenter le rôle des synapses, ajoute-t-il, on attribue des poids aux différentes entrées du neurone.» Sur le graphique, on peut voir que, après avoir établi les valeurs numériques des entrées, on multiplie ces valeurs par le poids de la synapse, on additionne les résultats de ces multiplications pour obtenir une somme pondérée et, finalement, on regarde si cette valeur de sortie atteint le seuil requis, ce qui se traduira par 0 ou 1.

«Pour représenter le rôle des synapses, on attribue des poids aux différentes entrées du neurone», explique le professeur Nicolas Doyon.

Entraîner le réseau

Au cours des dernières années, l’intelligence artificielle a réussi à faire de grandes percées grâce au développement de l’apprentissage profond. «On travaille désormais avec des réseaux de neurones à plusieurs couches: une couche d’entrée, des couches intermédiaires et une couche de sortie. Entre un neurone d’une couche et un neurone d’une autre couche, il y a une force de connexion, aussi appelée poids synaptique, et lorsque le réseau apprend, chacun de ces poids est ajusté», remarque Nicolas Doyon.

Et comment le réseau apprend-il? Par entraînement, indique le chercheur. Prenons le cas d’un réseau de neurones à qui on demande de confirmer si la photo est celle d’un chat ou d’un chien. On attribuera la valeur 0 au chat et 1 au chien. Pour entraîner le réseau, on utilisera des milliers, voire des millions d’images de ces petites bêtes, et on examinera le pourcentage des images bien classées. Si le réseau ne donne pas la bonne réponse, c’est qu’il n’a pas obtenu la bonne valeur de sortie parce que les poids synaptiques n’étaient pas bien ajustés. On réajustera donc ces poids jusqu’à obtenir un pourcentage de réussite très élevé.

Mais comment faire pour ajuster les poids? «On utilise, entre autres, la méthode de descente de gradient. Pour l’illustrer, on peut imaginer une personne qui essayerait de descendre le plus rapidement possible jusqu’au pied d’une montagne. C’est facile à visualiser lorsqu’il y a seulement deux entrées. Sur l’axe des x, on va présenter le taux de réussite lié à différents poids par lesquels on a multiplié la première entrée et, sur l’axe des y, le taux de réussite lié à différents poids par lesquels on a multiplié la seconde entrée. Sur l’axe des z apparaîtra l’erreur. Il est alors possible de visualiser le point où l’erreur est la plus faible et de tenter d’ajuster les poids pour tendre vers cette direction», explique le professe
#Lenvers #décor #ChatGPT
publish_date] pt]

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Agrypnie – Erg

2024-09-10 10:00:29 (c) Révélations nulles Agripnie font sans conteste partie des maîtres d’une musique black metal complexe,