Réseaux neuronaux informés de la physique pour résoudre les équations de Navier-Stokes
Les réseaux neuronaux informés par la physique (PINNs (Physics-informed neural networks) en anglais)[1], également appelés réseaux neuronaux guidés par la théorie (TTN) [2] sont des d'algorithmes d'apprentissage automatique qui intégrent la connaissance de lois physiques dans le processus d'entraînement. Souvent, ces lois physiques prennent la formes d'équations aux dérivées partielles (EDPs). L'utilisation de telles contraintes physiques a pour objectif de guider l'apprentissage du modèle pour en améliorer les performances. Cela est particulièrement utile quand la faible disponibilité des données limite la robustesse des modèles d’apprentissage automatique conventionnels, ce qui est parfois le cas pour certains problèmes biologiques et d’ingénierie[1]. La connaissance préalable de lois physiques agit alors comme une régularisation qui limite l'espace des solutions admissibles, avec pour but d'améliorer les performances du modèle et de le rendre plus interprétable.
Récemment, la résolution des équations aux dérivées partielles à l’aide de l’apprentissage profond est apparue comme un nouveau domaine de l’apprentissage automatique. Il repose en particulier sur le théorème d’approximation universel[4], qui affirme que les réseaux de neurones sont capables d'approximer toute fonction continue sur un ensemble compact[5]. Ainsi, les PINNs sont entraînés afin d'exploiter les données d’entraînement fournies et de respecter les équations de régulation imposées. De cette façon, un réseau neuronal peut être entraîné pour résoudre un système d'EDPs à partir d'une base de donnée qui n'est pas nécessairement volumineuse ou complète[5],[6].
Les PINNs ont été appliqués à un large éventail de problèmes en informatique et représentent notamment une nouvelle classe de solveurs numériques pour les EDPs. Ils peuvent être considérés comme une alternative sans maillage aux approches traditionnelles de résolution d'EDP (par exemple, la CFD pour la dynamique des fluides), ainsi qu'aux approches basées sur les données pour l'inversion de modèle et l'identification de systèmes[7]. Notamment, les PINNs peuvent être utilisés pour prédire les valeurs sur des grilles de simulation de différentes résolutions sans avoir besoin d'être réentraînés[8]. De plus, ils permettent d'exploiter la différenciation automatique (DA) [9] pour calculer les dérivées requises dans les équations aux dérivées partielles.
Modélisation du problème
La plupart des équations aux dérivées partielles prennent la forme
où la fonction est l'inconnue, est un opérateur potentiellement non-linéaire paramétré par , et est un sous-ensemble de . Cette formulation recoupe un large éventail de problèmes de physique mathématique, tels que les lois de conservations, les processus de diffusion, d'advection-diffusion et les équations cinétiques. Étant données des mesures bruitées d'une fonction solution de l'équation ci-dessus, un PINN peut être impléments pour résoudre les deux classes de problèmes suivantes :
si le paramètre est connu, il s'agit de résoudre l'EDP en tirant parti des données,
sinon, il s'agit d'apprendre à la fois le paramètre et la solution de l'EDP grâce aux données.
Résolution d'équations aux dérivées partielles basée sur les données
Etant donné un paramètre , le méthode PINN pour la résolution d'EDP cherche à estimer la solution de l'EDP
,
à partir d'un jeu de conditions aux bords . Pour ce faire, la méthode PINN consiste à minimiser le risque empirique suivant sur un ensemble de réseaux de neurones
,
où est l'erreur entre le PINN et l'ensemble des conditions aux bords sur l'ensemble des points où les conditions aux bords sont définies, et mesure l'écart entre le réseau de neurone et les solutions de l'EDP. C'est ce deuxième terme qui encourage le PINN à apprendre les informations structurelles exprimées par l'équation aux dérivées.
Les paramètres du réseau de neurones peuvent alors être calculés par descente de gradient en exploitant la différenciation automatique.
Cette approche a été appliquée dans la prévision des processus physiques, le contrôle prédictif des modèles, la modélisation multiphysique et multi-échelle et la simulation[10]. Il a été démontré qu'elle converge vers la solution de l'EDP[11].
Découverte d'équations aux dérivées partielles basée sur les données
Étant donné des mesures bruyantes et incomplètes de la fonction , la découverte de l'EDP guidée par les données [7] consiste en l'estimation à la fois de la fonction inconnue et du paramètre de l'EDP
qui décrivent le mieux les données observées. Pour cela, la méthode PINN consiste à minimiser à la fois en et en le risque empirique défini dans le paragraphe précédent.
Réseaux de neurones basés sur la physique (PINN) pour les problèmes inverses
Les réseaux neuronaux basés sur la physique (PINN) se sont avérés efficaces pour résoudre des problèmes inverses à base d'équations différentielles, notamment avec des données bruitées[15]. Ils se sont révélés efficaces en nano-optique[16], en optimisation de forme[17], en modélisation d'écoulement multiphasique dans les milieux poreux[18],[19], et en modélisation de l'écoulement de fluides à grande vitesse[20]. Ils ont également démontré des avantages clairs dans le calcul inverse des paramètres pour les base de données multi-fidélité, c'est-à-dire les bases de données combinant des observations à différentes échelles ou mesurées avec des précisions différentes. Les incertitudes dans les calculs peuvent être évaluées à l'aide de probabilités bayésiennes[21].
Limites
Les PINNs ont des difficultés à approximer les fonctions discontinues. De nombreux exemples existent où les PINNs ne parviennent pas à approximer les solutions de certaines EDPs[22],[23]. L'une des raisons des échecs d'entraînement de PINNs réside dans la nécessité d'optimiser à la fois la pénalité sur les conditions aux bords et celle sur l'EDP, ce qui correspond à un problème multi-objectif dont l'optimisation est fortement suceptible rester bloqué dans des optima locaux[24].
↑ a et b(en) Raissi, Perdikaris et Karniadakis, « Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations », Journal of Computational Physics, vol. 378, , p. 686–707 (ISSN0021-9991, DOI10.1016/j.jcp.2018.10.045, Bibcode2019JCoPh.378..686R, S2CID57379996)
↑(en) Stefano Markidis, « The Old and the New: Can Physics-Informed Deep-Learning Replace Traditional Linear Solvers? », Frontiers in Big Data, vol. 4, (ISSN2624-909X, DOI10.3389/fdata.2021.669097, lire en ligne, consulté le )
↑Fu, Xiao, Fu et Li, « Physics-data combined machine learning for parametric reduced-order modelling of nonlinear dynamical systems in small-data regimes », Computer Methods in Applied Mechanics and Engineering, vol. 404, , p. 115771 (DOI10.1016/j.cma.2022.115771, Bibcode2023CMAME.404k5771F, S2CID254397985)
↑Siddhartha Mishra et Roberto Molinaro, « Estimates on the generalization error of physics-informed neural networks for approximating a class of inverse problems for PDEs », IMA Journal of Numerical Analysis, vol. 42, no 2, , p. 981–1022 (ISSN0272-4979, DOI10.1093/imanum/drab032, lire en ligne, consulté le )
↑Tim De Ryck, Ameya D Jagtap et Siddhartha Mishra, « Error estimates for physics-informed neural networks approximating the Navier–Stokes equations », IMA Journal of Numerical Analysis, vol. 44, no 1, , p. 83–119 (ISSN0272-4979, DOI10.1093/imanum/drac085, lire en ligne, consulté le )
↑(en) Serebrennikova, Teubler, Hoffellner et Leitner, « Transport of Organic Volatiles through Paper: Physics-Informed Neural Networks for Solving Inverse and Forward Problems », Transport in Porous Media, vol. 145, no 3, , p. 589–612 (ISSN1573-1634, DOI10.1007/s11242-022-01864-7, Bibcode2022TPMed.145..589S)
↑(en) Abbasi et Andersen, « Application of Physics-Informed Neural Networks for Estimation of Saturation Functions from Countercurrent Spontaneous Imbibition Tests », SPE Journal, vol. 29, no 4, , p. 1710–1729 (ISSN1086-055X, DOI10.2118/218402-PA, lire en ligne)
↑Mojgani, Balajewicz et Hassanzadeh, « Kolmogorov n–width and Lagrangian physics-informed neural networks: A causality-conforming manifold for convection-dominated PDEs », Computer Methods in Applied Mechanics and Engineering, vol. 404, , p. 115810 (DOI10.1016/j.cma.2022.115810, arXiv2205.02902)
↑Eric Aislan Antonelo, Camponogara, Laio Oriel Seman et Eduardo Rehbein de Souza, « Physics-informed neural nets for control of dynamical systems », Neurocomputing, vol. 579, (DOI10.1016/j.neucom.2024.127419, arXiv2104.02556)
↑(en) Sifan Wang, Yujun Teng et Paris Perdikaris, « Understanding and Mitigating Gradient Flow Pathologies in Physics-Informed Neural Networks », SIAM Journal on Scientific Computing, vol. 43, no 5, , A3055–A3081 (ISSN1064-8275 et 1095-7197, DOI10.1137/20M1318043, lire en ligne, consulté le )