Méthode linéaire à pas multiples

Les méthodes linéaires à pas multiples sont des schémas de calcul utilisés en mathématiques pour la résolution numérique des équations différentielles ordinaires.

En général, les méthodes de résolution numérique permettent de calculer de proche en proche les valeurs de la fonction solution de l'équation différentielle à partir d'un point initial dont la valeur est connue. L'écart entre deux points successifs d'un intervalle est appelé le pas. Les méthodes à un seul pas (comme la méthode d'Euler) utilisent uniquement la valeur de la fonction et de sa dérivée au dernier point connu pour calculer la valeur de la fonction au point suivant.

Il existe des méthodes plus avancées telles que les méthodes de Runge-Kutta qui utilisent des points intermédiaires de l'intervalle pour raffiner les calculs, mais ces informations ne sont pas conservées d'une étape à la suivante.

Les méthodes à pas multiples (ou multi-pas) cherchent à gagner en efficacité en conservant certaines informations des étapes précédentes du calcul. En particulier, les méthodes linéaires à pas multiple utilisent une combinaison linéaire des valeurs de la fonction et de sa dérivée aux points précédents[1].

Définitions

Considérons l'équation différentielle ordinaire à condition initiale suivante:

Une méthode de résolution numérique est une approximation de la valeur de la fonction y(t) à des valeurs discrètes ti : h est le pas de temps (parfois noté Δt) et i est un entier.

Les méthodes à pas multiples utilisent des informations provenant de s étapes précédentes pour calculer la valeur suivante. Pour calculer la valeur à tn+s on utilisera donc les valeurs à tn+s, tn+s–1, tn+s–2,...tn .

Les méthodes linéaires à pas multiple utilisent une combinaison linéaire des yi et des f(ti,yi) pour calculer la valeur de y à l'étape suivante. On a donc la formule générale suivante : avec as = 1 .

Le choix des coefficients aj et bj, spécifique à la méthode employée, est souvent un compromis entre la réduction de l'erreur par rapport à la vraie solution et la difficulté des calculs.

On peut dès lors distinguer les méthodes explicites et implicites. Si bs est nul, alors la méthode est explicite. En effet, on peut calculer directement yn+s, à partir des autres valeurs connues. Inversement si bs est non nul, la méthode est implicite, puisque la valeur de yn+s dépend de la valeur de f(tn+s,yn+s). On ne pourra donc calculer cette valeur directement ; il faudra résoudre numériquement une équation d'inconnue yn+s, par exemple par la méthode de Newton.

Parfois, une première méthode explicite à pas multiple est utilisée pour prédire une valeur de yn+s, qui est ensuite utilisée dans une seconde formule implicite pour en corriger la valeur selon le principe des méthodes prédicteur-correcteur .

Exemples

Soit l'équation différentielle suivante dont la solution exacte est la fonction exponentielle .

Méthode d'Euler

Une méthode numérique courante est la méthode d'Euler : Cette méthode n'utilise qu'un seul pas. Par exemple avec h = 0,5 :

Méthode d'Adams–Bashforth

Un exemple de schéma à pas double est la méthode d'Adams-Bashforth d'ordre 2.

Cette méthode prend en compte deux valeurs successives : yn et yn+1, pour calculer yn+2. Pour initialiser le calcul à l'étape 1 (où l'on ne dispose que de la condition initiale y0) on peut utiliser la méthode d'Euler.

Dans ces conditions, les 4 premières étapes donnent, à 10-4 près:

La solution exacte à t4 = 2 est e2 = 7,3891... ; la méthode d'Adams-Bashforth est plus précise que celle d'Euler.

Familles de méthodes

Trois familles de schémas linéaires multi-pas sont couramment utilisées : les méthodes d'Adams-Bashforth, les méthodes d'Adams-Moulton et les formules de différences finies rétrogrades.

Méthodes d'Adams-Bashforth

Les schémas d’Adams-Bashforth sont des méthodes explicites. On pose as–1= –1, et les autres coefficients aj sont nuls. Les coefficients bj sont choisis de telle sorte que la méthode soit d'ordre s, ce qui les détermine de manière unique.

À titre d'exemple, voici les coefficients formules utilisées jusqu'à l'ordre 5[2],[3].

Ces coefficients bj se calculent en déterminant une interpolation polynomiale P de la fonction f de degré s-1 telle que Ce polynôme s'obtient par la formule de l'interpolation de Lagrange avec valeurs précédemment calculées de la fonction fLe polynôme P est, par construction, une bonne approximation de la fonction f. Ce qui permet de substituer à f dans l'équation différentielle originale

Or cette nouvelle équation peut être résolue simplement : il suffit d'intégrer P :On obtient donc ainsi les formules pour les coefficients de la méthode d'Adams-Bashforth en identifiant après intégration : La substitution de f par son polynôme interpolateur P engendre une erreur de l'ordre de hs, ce qui démontre que la méthode d'Adams-Bashforth à s étapes est bien d'ordre s.

Les méthodes d'Adams-Bashforth furent originellement conçues par John Couch Adams pour résoudre une équation différentielle modélisant l'action capillaire due à Francis Bashforth[4],[5].

Méthodes d'Adams-Moulton

La version implicite du même procédé donne les méthodes d'Adams-Moulton. Là encore on pose as–1 = -1 et les autres coefficients aj sont nuls. On utilise également l'interpolation de Lagrange pour approximer f ; en revanche, on s'autorise à ce que le polynôme soit d'ordre s + 1 ; autrement dit, bs sera non nul.

Ci-dessous, on détaille les valeurs des coefficients pour s = 0, 1, 2, 3, 4 sont :On remarque que le cas s = 0 correspond à la méthode d'Euler implicite et le cas s = 1 à la méthode des trapèzes.

Le calcul des coefficients en général est similaire à celui vu plus haut pour la méthode Adams-Bashforth ; cependant, le polynôme d'interpolation utilise non seulement les points , mais aussi .

Les coefficients sont donnés par

Le schéma d’Adams–Moulton sont également dues à John Couch Adams, comme celui d’Adams–Bashforth. Forest Ray Moulton réalisa qu'elles pouvaient être utilisées en tandem avec les méthodes d'Adams-Bashforth comme paire prédicteur-correcteur[6].

Formules de différences finies rétrogrades

Les méthodes de différences finies rétrogrades sont des méthodes implicites dans lesquelles les coefficients bs–1,..., b0 sont nuls et les autres coefficients sont choisis de telle sorte que la méthode atteigne l'ordre s. Ces méthodes sont particulièrement utiles pour résoudre des équations différentielles raides.

Propriétés

On s'intéresse ici aux propriétés importantes de ces méthodes multi-pas : leur convergence, l'ordre de leur erreur et leur stabilité.

Cohérence et ordre

On souhaite d'abord vérifier que la méthode est cohérente, c'est à dire si l'équation aux différences finies est une bonne approximation de l'équation différentielle .

Formellement, une méthode sera cohérente si l'erreur de troncature locale tend vers zéro plus rapidement que la taille du pas h lorsque h tend vers zéro. L'erreur de troncature locale est la différence entre le résultat donné par le calcul, en supposant que toutes les valeurs précédentes soient exactes, et la solution exacte de l'équation à l'instant . Un calcul par série de Taylor montre qu'une méthode linéaire à pas multiples est cohérente si et seulement si On peut vérifier que c'est bien le cas pour toutes les méthodes vues ci-dessus.

Une fois assurés de la cohérence, on cherche à évaluer l'ordre de l'erreur d'approximation. On dit qu'une méthode est d'ordre p si l'erreur locale est en lorsque h tend vers zéro. Pour les méthodes linéaires à pas multiples, il suffit que : Comme vu précédemment, la méthode d'Adams-Bashforth à s étapes est d'ordre s, tandis que celle d'Adams-Moulton est d'ordre s + 1[2].

On résume souvent ces conditions à l'aide des deux polynômes caractéristiques Les conditions précédentes se pour que la méthode soit d'ordre p est alors En particulier, la méthode est cohérente si elle est au moins d'ordre 1, ce qui est le cas si et .

Stabilité et convergence

La solution numérique d'une méthode à pas multiples dépend non seulement de la condition initiale y0, mais aussi des s – 1 autres valeurs de départ : y1,...ys . La question de la stabilité de la solution par rapport aux variations de ces valeurs initiales se pose alors.

Une méthode linéaire à pas multiple est dite stable en zéro pour une équation différentielle sur un intervalle de temps donné, si une perturbation dans les valeurs de départ d'amplitude ε engendre une erreur de la solution numérique sur cet intervalle de temps ne dépassant pas Kε, où K est une constante indépendante du pas h. Il suffit de vérifier cette condition sur l'équation y' = 0, ce qui explique l'appellation de stabilité en zéro[7].

Une condition nécessaire et suffisante pour qu'une méthode soit stable en zéro est la condition des racines. Il faut et suffit que les racines du polynôme caractéristique ρ soient toutes de module inférieur ou égal à 1, et que les racines de module 1 soient de multiplicité 1, pour que la méthode soit stable en zéro.

Ce théorème d'équivalence de Dahlquist est un théorème analogue au théorème d'équivalence de Lax pour les méthodes aux différences finies.

De plus, pour une méthode stable en zéro d'ordre p, alors l'erreur globale (la différence entre la solution numérique et la solution exacte à en un point donné) est d'ordre O(hp)[7].

Pour une méthode convergente :

  • une méthode dont z = 1 est la seule racine de module 1 sera dite fortement stable
  • une méthode ayant plusieurs racines de module 1, sans qu'aucune soit multiple sera dite relativelement stable.

Puisqu'il faut que 1 soit racine du polynome pour que la méthode soit convergente, toute méthode convergente sera nécéssairement soit fortement stable, soit relativement stable.

Pour évaluer les performances des méthodes linéaires multi-étapes sur des équations raides, considérons par exemple l'équation linéaire y' = λ y .

Une méthode linéaire à pas multiples appliquée à cette équation différentielle avec un pas h donne une relation de récurrence linéaire qui fait apparaître un troisième polynôme caractéristique : Ce polynôme est appelé le polynôme de stabilité de la méthode multi-étapes. Si toutes ses racines sont de module inférieur à un, alors la solution numérique de la méthode multi-étapes tend vers zéro. On dit que la méthode est absolument stable pour cette valeur de h λ.

La méthode est dite A-stable si elle est absolument stable pour tout h λ de partie réelle négative. La région de stabilité absolue est l'ensemble de tous les h λ pour lesquels la méthode multi-étapes est absolument stable.

Exemple

Soit le schéma d’Adams-Bashforth à 3 étapes :Le premier polynôme caractéristique ρ est alors dont les racines sont z = 0 et z = 1.

Les conditions de stabilité sont satisfaites : comme z = 1 est une racine simple, la méthode est fortement stable.

L'autre polynôme caractéristique est

Première et deuxième barrières de Dahlquist

Germund Dahlquist établit les deux résultats suivants concernant la convergence et la A-stabilité des schémas linéaires à pas multiples.

Première barrière de Dahlquist

L'ordre de convergence de toute méthode linéaire à pas multiple à q étapes zéro-stable est au plus q +1 si q est impair, et au plus q + 2 si q est pair.

De plus, si la méthode est explicite, alors l'ordre sera au plus q[8].

Deuxième barrière Dahlquist

Si un schéma linéaire à pas multiple est explicite, alors il ne peut être A-stable.

S'il est implicite et A-stable, alors il sera au plus d'ordre 2. La méthode des trapèzes est la méthode d'ordre 2 A-stable ayant la plus petite constante d'erreur[9].

Références

  1. « Les Méthodes multi-pas :: Cours Tan », sur feelpp.github.io (consulté le )
  2. a et b (en) Ernst Hairer, Gerhard Wanner et Syvert P. Nørset, Solving Ordinary Differential Equations I : Nonstiff problems, Springer, (ISBN 978-3-540-56670-0, DOI 10.1007/978-3-540-78862-1, lire en ligne), III.1
  3. John C. Butcher, Numerical methods for ordinary differential equations, Wiley [u.a.], (ISBN 978-0-471-96758-3), p. 103
  4. (en) Francis Bashforth et John Couch Adams, An attempt to test the theories of capillary action by comparing the theoretical and measured forms of drops of fluid, Cambridge University Press, (lire en ligne)
  5. Herman H. Goldstine, A history of numerical analysis from the 16th through the 19th century, Springer, coll. « Studies in the history of mathematics and physical sciences », (ISBN 978-0-387-90277-7 et 978-3-540-90277-5)
  6. Roger Sherman Hoar et F. R. Moulton, « New Methods in Exterior Ballistics. », The American Mathematical Monthly, vol. 34, no 6,‎ , p. 325 (DOI 10.2307/2299335, lire en ligne, consulté le )
  7. a et b Endre Süli et David Francis Mayers, An introduction to numerical analysis, Cambridge University Press, (ISBN 978-0-521-00794-8 et 978-0-521-81026-5), p.323-340
  8. Germund Dahlquist, « Convergence and stability in the numerical integration of ordinary differential equations », MATHEMATICA SCANDINAVICA, vol. 4,‎ , p. 33 (ISSN 1903-1807 et 0025-5521, DOI 10.7146/math.scand.a-10454, lire en ligne, consulté le )
  9. (en) Germund G. Dahlquist, « A special stability problem for linear multistep methods », BIT, vol. 3, no 1,‎ , p. 27–43 (ISSN 0006-3835 et 1572-9125, DOI 10.1007/BF01963532, lire en ligne, consulté le )