Les transformations de Fourier révèlent comment l’IA apprend la physique complexe

Les transformations de Fourier révèlent comment l’IA apprend la physique complexe

Une nouvelle étude a révélé que l’analyse de Fourier, une technique mathématique qui existe depuis 200 ans, peut être utilisée pour révéler des informations importantes sur la façon dont les réseaux de neurones profonds apprennent à effectuer des tâches physiques complexes, telles que la modélisation du climat et de la turbulence. Cette recherche met en évidence le potentiel de l’analyse de Fourier en tant qu’outil pour mieux comprendre le fonctionnement interne de l’intelligence artificielle et pourrait avoir des implications importantes pour le développement d’algorithmes d’apprentissage automatique plus efficaces.

La “boîte noire” de l’IA scientifique n’est pas à la hauteur d’une méthode vieille de 200 ans

Les transformations de Fourier révèlent à quel point le réseau neuronal profond apprend la physique complexe.

L’un des outils les plus anciens de la physique computationnelle – une technique mathématique vieille de 200 ans connue sous le nom de Analyse de Fourier – peut révéler des informations cruciales sur la façon dont une forme d’intelligence artificielle appelée réseau neuronal profond apprend à effectuer des tâches impliquant une physique complexe comme la modélisation du climat et de la turbulence, selon une nouvelle étude.

La découverte par des chercheurs en génie mécanique de l’Université Rice est décrite dans une étude en libre accès publiée dans la revue Nexus PNASune publication sœur du Actes de l’Académie nationale des sciences.

“Il s’agit du premier cadre rigoureux pour expliquer et guider l’utilisation des réseaux de neurones profonds pour des systèmes dynamiques complexes tels que le climat”, a déclaré l’auteur correspondant de l’étude, Pedram Hassanzadeh. “Cela pourrait considérablement accélérer l’utilisation de l’apprentissage scientifique en profondeur dans la science du climat et conduire à des projections du changement climatique beaucoup plus fiables.”

L'IA prédit l'évolution des flux au fil du temps

Les chercheurs de l’Université Rice ont formé une forme d’intelligence artificielle appelée réseau neuronal d’apprentissage en profondeur pour reconnaître les flux complexes d’air ou d’eau et prédire comment les flux changeront au fil du temps. Ce visuel illustre les différences substantielles dans l’échelle des caractéristiques que le modèle affiche pendant la formation (en haut) et les caractéristiques qu’il apprend à reconnaître (en bas) pour faire ses prédictions. Crédit : Image reproduite avec l’aimable autorisation de P. Hassanzadeh/Rice University

Dans l’article, Hassanzadeh, Adam Subel et Ashesh Chattopadhyay, tous deux anciens étudiants, et Yifei Guan, un associé de recherche postdoctoral, ont détaillé leur utilisation de l’analyse de Fourier pour étudier un réseau neuronal d’apprentissage en profondeur qui a été formé pour reconnaître les flux complexes d’air dans l’atmosphère. ou de l’eau dans l’océan et de prédire comment ces flux évolueraient avec le temps. Leur analyse a révélé “non seulement ce que le réseau de neurones avait appris, cela nous a également permis de connecter directement ce que le réseau avait appris à la physique du système complexe qu’il modélisait”, a déclaré Hassanzadeh.

« Les réseaux de neurones profonds sont tristement difficile à comprendre et sont souvent considérés comme des “boîtes noires” », a-t-il déclaré. “C’est l’une des principales préoccupations liées à l’utilisation des réseaux de neurones profonds dans les applications scientifiques. L’autre est la généralisabilité : ces réseaux ne peuvent pas fonctionner pour un système différent de celui pour lequel ils ont été formés. »

Spectres de Fourier des noyaux les plus modifiés à partir du DNN recyclé

La formation de réseaux de neurones profonds de pointe nécessite une grande quantité de données, et le fardeau du recyclage, avec les méthodes actuelles, est toujours important. Après avoir formé et recyclé un réseau d’apprentissage en profondeur pour effectuer différentes tâches impliquant une physique complexe, les chercheurs de l’Université Rice ont utilisé l’analyse de Fourier pour comparer les 40 000 noyaux des deux itérations et ont découvert que plus de 99 % étaient similaires. Cette illustration montre les spectres de Fourier des quatre noyaux qui différaient le plus avant (à gauche) et après (à droite) le réentraînement. Les résultats démontrent le potentiel de la méthode pour identifier des voies de recyclage plus efficaces qui nécessitent beaucoup moins de données. Crédit : Image reproduite avec l’aimable autorisation de P. Hassanzadeh/Rice University

Hassanzadeh a déclaré que le cadre analytique que son équipe présente dans l’article “ouvre la boîte noire, nous permet de regarder à l’intérieur pour comprendre ce que les réseaux ont appris et pourquoi, et nous permet également de relier cela à la physique du système qui a été appris”.

Subel, l’auteur principal de l’étude, a commencé la recherche en tant que premier cycle de Rice et est maintenant étudiant diplômé à

L’Université de New York
Fondée en 1831, l’Université de New York (NYU) est une université de recherche privée basée à New York.

” data-gt-translate-attributes=”[{“attribute=””>UniversitédeNewYork[{“attribute=””>NewYorkUniversity. Il a déclaré que le cadre pourrait être utilisé en combinaison avec des techniques de transfert d’apprentissage pour “permettre la généralisation et, en fin de compte, accroître la fiabilité de l’apprentissage scientifique en profondeur”.

Alors que de nombreuses études antérieures avaient tenté de révéler comment les réseaux d’apprentissage en profondeur apprennent à faire des prédictions, Hassanzadeh a déclaré que lui, Subel, Guan et Chattopadhyay avaient choisi d’aborder le problème sous un angle différent.

Pedram Hassanzadeh

Pédram Hassanzadeh. Crédit : Université Rice

“Le commun

apprentissage automatique
L’apprentissage automatique est un sous-ensemble de l’intelligence artificielle (IA) qui traite du développement d’algorithmes et de modèles statistiques qui permettent aux ordinateurs d’apprendre à partir de données et de faire des prédictions ou des décisions sans être explicitement programmés pour le faire. L’apprentissage automatique est utilisé pour identifier des modèles dans les données, classer les données dans différentes catégories ou faire des prédictions sur des événements futurs. Il peut être classé en trois principaux types d’apprentissage : l’apprentissage supervisé, non supervisé et par renforcement.

” data-gt-translate-attributes=”[{“attribute=””>apprentissageautomatique[{“attribute=””>machinelearning les outils pour comprendre les réseaux de neurones n’ont pas montré beaucoup de succès pour les applications des systèmes naturels et d’ingénierie, du moins de sorte que les résultats pourraient être connectés à la physique », a déclaré Hassanzadeh. « Notre pensée était : ‘Faisons quelque chose de différent. Utilisons un outil commun pour étudier la physique et appliquons-le à l’étude d’un réseau neuronal qui a appris à faire de la physique.

Il a dit l’analyse de Fourier, qui était proposé pour la première fois dans les années 1820est une technique préférée des physiciens et des mathématiciens pour identifier les modèles de fréquence dans l’espace et le temps.

“Les gens qui font de la physique regardent presque toujours les données dans l’espace de Fourier”, a-t-il déclaré. “Cela facilite la physique et les mathématiques.”

Par exemple, si quelqu’un avait un enregistrement minute par minute des relevés de température extérieure pendant une période d’un an, l’information serait une chaîne de 525 600 chiffres, un type d’ensemble de données que les physiciens appellent une série chronologique. Pour analyser la série chronologique dans l’espace de Fourier, un chercheur utiliserait la trigonométrie pour transformer chaque nombre de la série, créant un autre ensemble de 525 600 nombres qui contiendraient des informations de l’ensemble d’origine mais seraient assez différents.

“Au lieu de voir la température à chaque minute, vous ne verriez que quelques pics”, a déclaré Subel. “L’un serait le cosinus de 24 heures, qui serait le cycle jour et nuit des hauts et des bas. Ce signal était là tout au long de la série chronologique, mais l’analyse de Fourier vous permet de voir facilement ces types de signaux à la fois dans le temps et dans l’espace.

Sur la base de cette méthode, les scientifiques ont développé d’autres outils d’analyse temps-fréquence. Par exemple, les transformations passe-bas filtrent le bruit de fond et les filtres passe-haut font l’inverse, permettant de se concentrer sur le fond.

Adam Subelle

Adam Subelle. Crédit : Université Rice

L’équipe d’Hassanzadeh a d’abord effectué la transformation de Fourier sur l’équation de son modèle d’apprentissage en profondeur entièrement formé. Chacun des quelque 1 million de paramètres du modèle agit comme des multiplicateurs, appliquant plus ou moins de poids à des opérations spécifiques dans l’équation lors des calculs du modèle. Dans un modèle non entraîné, les paramètres ont des valeurs aléatoires. Ceux-ci sont ajustés et affinés pendant la formation à mesure que l’algorithme apprend progressivement à arriver à des prédictions de plus en plus proches des résultats connus dans les cas de formation. Structurellement, les paramètres du modèle sont regroupés dans quelque 40 000 matrices cinq par cinq, ou noyaux.

“Lorsque nous avons pris la transformée de Fourier de l’équation, cela nous a dit que nous devrions regarder la transformée de Fourier de ces matrices”, a déclaré Hassanzadeh. « Nous ne le savions pas. Personne n’a jamais fait cette partie auparavant, regardé les transformées de Fourier de ces matrices et essayé de les relier à la physique.

“Et quand nous avons fait cela, il est apparu que ce que le réseau de neurones apprend est une combinaison de filtres passe-bas, de filtres passe-haut et Filtres Gabor,” il a dit.

“La belle chose à ce sujet est que le réseau de neurones ne fait aucune magie”, a déclaré Hassanzadeh. « Il ne fait rien de fou. C’est en fait ce qu’un physicien ou un mathématicien aurait pu essayer de faire. Bien sûr, sans la puissance des réseaux de neurones, nous ne savions pas comment combiner correctement ces filtres. Mais quand on parle de ce travail aux physiciens, ils adorent ça. Parce qu’ils sont, comme, ‘Oh! Je sais ce que sont ces choses. C’est ce que le réseau de neurones a appris. Je vois.'”

Subel a déclaré que les résultats ont des implications importantes pour l’apprentissage scientifique en profondeur, et suggèrent même que certaines choses que les scientifiques ont apprises en étudiant l’apprentissage automatique dans d’autres contextes, comme la classification des images statiques, peuvent ne pas s’appliquer à l’apprentissage automatique scientifique.

“Nous avons constaté que certaines des connaissances et des conclusions de la littérature sur l’apprentissage automatique qui ont été obtenues à partir de travaux sur des applications commerciales et médicales, par exemple, ne s’appliquent pas à de nombreuses applications critiques en science et en ingénierie, telles que la modélisation du changement climatique”, a déclaré Subel. . “Ceci, en soi, est une implication majeure.”

Référence : “Explaining the physics of transfer learning in data-driven turbulence modeling” par Adam Subel, Yifei Guan, Ashesh Chattopadhyay et Pedram Hassanzadeh, 23 janvier 2023, Nexus PNAS.
DOI : 10.1093/pnasnexus/pgad015

Chattopadhyay a obtenu son doctorat. en 2022 et est maintenant chercheur au Palo Alto Research Center.

La recherche a été soutenue par l’Office of Naval Research (N00014-20-1-2722), la National Science Foundation (2005123, 1748958) et le programme Schmidt Futures. Les ressources informatiques ont été fournies par la National Science Foundation (170020) et le National Center for Atmospheric Research (URIC0004).

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.