In der numerischen Mathematik ist das Arnoldi-Verfahren wie das Lanczos-Verfahren ein iteratives Verfahren zur Bestimmung einiger Eigenwerte und zugehöriger Eigenvektoren. Es ist nach Walter Edwin Arnoldi benannt. Im Arnoldi-Verfahren wird zu einer gegebenen Matrix
und einem gegebenen Startvektor
eine orthonormale Basis des zugeordneten Krylowraumes
![{\displaystyle {\mathcal {K}}_{m}(A,q)={\mbox{span}}\{q,Aq,A^{2}q,\ldots \,A^{m-1}q\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ca2254ade9dfcbf10642bf2f36590f51687811e7)
berechnet. Da die Spalten
bis auf eine etwaige Skalierung genau den in der Potenzmethode berechneten Vektoren entsprechen, ist es klar, dass der Algorithmus instabil wird, wenn zuerst diese Basis berechnet würde und anschließend, zum Beispiel nach Gram-Schmidt, orthonormalisiert würde.
Der Algorithmus kommt allerdings ohne die vorherige Aufstellung der sogenannten Krylowmatrix
aus.
Der Algorithmus (MGS-Variante)
Gegeben sei eine quadratische Matrix
und ein (nicht notwendig normierter) Startvektor
.
for
and
do
![{\displaystyle h_{k,k-1}\leftarrow \|r_{k-1}\|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c76139130a572154586b19566f7fd49b39ea7c21)
![{\displaystyle q_{k}\leftarrow r_{k-1}/h_{k,k-1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3adcfa496bd7d370c8dbdb4d51946a8fef0781a7)
![{\displaystyle r_{k}\leftarrow Aq_{k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f94a07079de843b76f29cef5a163e356923594c0)
- for
do
![{\displaystyle h_{jk}\leftarrow \langle q_{j},r_{k}\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/3062d2386456566fd07a42d33347ddaf21078ca6)
![{\displaystyle r_{k}\leftarrow r_{k}-q_{j}h_{jk}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fc1e1f0603c9a66a4b57ebd88b9004164cec9750)
- end for
end for
Einsatz beim Eigenwertproblem
Nach
Schritten hat das Arnoldi-Verfahren im Wesentlichen eine Orthonormalbasis in der Matrix
bestimmt und eine Hessenbergmatrix
![{\displaystyle H_{m}={\begin{pmatrix}h_{11}&h_{12}&\ldots &h_{1m}\\h_{21}&h_{22}&\ldots &h_{2m}\\0&\ddots &\ddots &\vdots \\&&h_{m,m-1}&h_{mm}\end{pmatrix}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/097f328fc4bca1d7708c98f61e7e0e29e003a249)
Für diese im Arnoldi-Verfahren berechneten Größen gilt der Zusammenhang
![{\displaystyle AQ_{m}=Q_{m}H_{m}+h_{m+1,m}q_{m+1}e_{m}^{T}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3b594c2f26032de073a7baf003b00077f06fa152)
wo
der
-te Einheitsvektor ist.
Daraus folgt:
- Für
definiert die Gleichung
einen invarianten Unterraum der Matrix
und alle
Eigenwerte der Matrix
sind auch Eigenwerte von
. In diesem Fall bricht das Arnoldi-Verfahren vorzeitig ab aufgrund der zweiten Bedingung
.
- Wenn
klein ist, sind die Eigenwerte von
gute Approximationen an einzelne Eigenwerte von
. Insbesondere Eigenwerte am Rand des Spektrums werden gut approximiert ähnlich wie beim Lanczos-Verfahren.
Anwendung auf Lineare Systeme, FOM und GMRES
Das Arnoldi-Verfahren ist außerdem der Kern-Algorithmus des GMRES-Verfahrens zur Lösung Linearer Gleichungssysteme und der Full Orthogonalization Method (FOM). In der FOM baut man den Krylow-Unterraum und die Basen
mit dem Startvektor
auf und ersetzt beim linearen System
die Matrix
durch die Approximation
. Die rechte Seite ist also Element des Krylowraums,
. Die Näherungslösung
im Krylow-Raum wird in der Basisdarstellung
bestimmt anhand des Systems
![{\displaystyle H_{m}y_{m}=\beta e_{1}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/080013aae809ac574aa9e5328f212005b7e878e6)
Dies entspricht der Bedingung
und definiert die Lösung
durch die Orthogonalitätsbedingung
. Daher ist die FOM ein Galerkin-Verfahren. Löst man das kleine System
mit einer QR-Zerlegung von
, so unterscheidet sich die Methode nur minimal vom Pseudocode im Artikel GMRES-Verfahren.
Literatur
- W.E. Arnoldi: The Principle of Minimized Iterations in the Solution of the Matrix Eigenvalue Problem. In: Quarterly of Applied Mathematics. 9. Jahrgang, 1951, S. 17–29.
- Gene H. Golub, Charles F. Van Loan: Matrix Computations. 3. Auflage. The Johns Hopkins University Press, 1996, ISBN 0-8018-5414-8.