SOR法 (SORほう、英 : Successive Over-Relaxation 、逐次加速緩和法 )とは
n
{\displaystyle n}
元連立一次方程式
A
x
=
b
{\displaystyle A{\boldsymbol {x}}={\boldsymbol {b}}}
を
反復法 で解く手法の一つであり、
ガウス=ザイデル法 に加速パラメータ
ω
{\displaystyle \omega }
を導入してその修正量を拡大することで、
更なる加速を図った手法である[ 1] 。
反復のスキーム
n
{\displaystyle n}
次正方行列
A
{\displaystyle A}
は、上三角行列
U
{\displaystyle U}
、
下三角行列
L
{\displaystyle L}
、対角行列
D
{\displaystyle D}
の和に分離すると、
A
=
L
+
D
+
U
{\displaystyle A=L+D+U}
と書ける。
非対角成分に相当する項をすべて右辺に移項し、すべての量
x
1
,
x
2
,
…
,
x
n
{\displaystyle x_{1},x_{2},\ldots ,x_{n}}
に
各段階で得られている最新のデータを代入するようにする(ガウス=ザイデル法 )。こうして計算された値を
x
~
(
k
+
1
)
{\displaystyle {\boldsymbol {\tilde {x}}}^{(k+1)}}
とすると、
x
~
i
(
k
+
1
)
{\displaystyle {\tilde {x}}_{i}^{(k+1)}}
は次の形となる[ 1] 。
x
~
i
(
k
+
1
)
=
1
a
i
i
(
b
i
−
∑
j
=
1
i
−
1
a
i
j
x
j
(
k
+
1
)
−
∑
j
=
i
+
1
n
a
i
j
x
j
(
k
)
)
{\displaystyle {\tilde {x}}_{i}^{(k+1)}={\frac {1}{a_{ii}}}\left(b_{i}-\sum _{j=1}^{i-1}a_{ij}x_{j}^{(k+1)}-\sum _{j=i+1}^{n}a_{ij}x_{j}^{(k)}\right)}
この値を次段でそのまま採用せずに、ガウス=ザイデル法 で本来修正される量
x
~
i
(
k
+
1
)
−
x
i
(
k
)
{\displaystyle {\tilde {x}}_{i}^{(k+1)}-x_{i}^{(k)}}
に1より大きい
加速パラメータ ([ 1] では緩和因子 、緩和係数 と呼ばれている)
ω
{\displaystyle \omega }
を乗じてこの修正量を拡大し、これを前段の近似値
x
i
(
k
)
{\displaystyle x_{i}^{(k)}}
に加えることで、新たな値は
x
i
(
k
+
1
)
=
x
i
(
k
)
+
ω
(
x
~
i
(
k
+
1
)
−
x
i
(
k
)
)
{\displaystyle x_{i}^{(k+1)}=x_{i}^{(k)}+\omega \left({\tilde {x}}_{i}^{(k+1)}-x_{i}^{(k)}\right)}
とできる[ 1] 。ただし、桁落ちを防ぐ観点からこの式の通り計算するのではなく、
x
i
(
k
+
1
)
=
(
1
−
ω
)
x
i
(
k
)
+
ω
x
~
i
(
k
+
1
)
{\displaystyle x_{i}^{(k+1)}=(1-\omega )x_{i}^{(k)}+\omega {\tilde {x}}_{i}^{(k+1)}}
として計算するか、または本節の最後に書かれた式を用いるのがよい。
この漸化式を、上の
A
=
L
+
D
+
U
{\displaystyle A=L+D+U}
を用いて行列で表現すると、
{
x
~
(
k
+
1
)
=
D
−
1
(
b
−
L
x
(
k
+
1
)
−
U
x
(
k
)
)
x
(
k
+
1
)
=
x
(
k
)
+
ω
(
x
~
(
k
+
1
)
−
x
(
k
)
)
{\displaystyle {\Biggl \{}{\begin{matrix}{\boldsymbol {\tilde {x}}}^{(k+1)}&=&D^{-1}\left({\boldsymbol {b}}-L{\boldsymbol {x}}^{(k+1)}-U{\boldsymbol {x}}^{(k)}\right)\\{\boldsymbol {x}}^{(k+1)}&=&{\boldsymbol {x}}^{(k)}+\omega \left({\boldsymbol {\tilde {x}}}^{(k+1)}-{\boldsymbol {x}}^{(k)}\right)\end{matrix}}}
となり、この2式から
x
~
(
k
+
1
)
{\displaystyle {\boldsymbol {\tilde {x}}}^{(k+1)}}
を消去することで、次式が得られる。
x
(
k
+
1
)
=
(
I
+
ω
D
−
1
L
)
−
1
{
(
1
−
ω
)
I
−
ω
D
−
1
U
}
x
(
k
)
+
ω
(
D
+
ω
L
)
−
1
b
{\displaystyle {\boldsymbol {x}}^{(k+1)}=\left(I+\omega D^{-1}L\right)^{-1}\left\{\left(1-\omega \right)I-\omega D^{-1}U\right\}{\boldsymbol {x}}^{(k)}+\omega \left(D+\omega L\right)^{-1}{\boldsymbol {b}}}
上式における
x
(
k
)
{\displaystyle {\boldsymbol {x}}^{(k)}}
の係数
M
ω
=
(
I
+
ω
D
−
1
L
)
−
1
{
(
1
−
ω
)
I
−
ω
D
−
1
U
}
{\displaystyle M_{\omega }=\left(I+\omega D^{-1}L\right)^{-1}\left\{\left(1-\omega \right)I-\omega D^{-1}U\right\}}
を反復行列という。
実際の数値計算においては、これを各成分について表した下の式が用いられる。
x
i
(
k
+
1
)
=
(
1
−
ω
)
x
i
(
k
)
+
ω
1
a
i
i
(
b
i
−
∑
j
=
1
i
−
1
a
i
j
x
j
(
k
+
1
)
−
∑
j
=
i
n
a
i
j
x
j
(
k
)
)
{\displaystyle x_{i}^{(k+1)}=(1-\omega )x_{i}^{(k)}+\omega {\frac {1}{a_{ii}}}\left(b_{i}-\sum _{j=1}^{i-1}a_{ij}x_{j}^{(k+1)}-\sum _{j=i}^{n}a_{ij}x_{j}^{(k)}\right)}
収束性
反復行列の固有値を
λ
{\displaystyle \lambda }
とすると、
max
|
λ
|
≥
|
ω
−
1
|
∀
ω
{\displaystyle \max |\lambda |\geq |\omega -1|\quad \forall \omega }
が成立することから、少なくとも
0
<
ω
<
2
{\displaystyle 0<\omega <2}
でなければSOR法の収束性は保証されない
[ 2] 。
さらに、正定値対称行列
A
{\displaystyle A}
を係数にもつ方程式
A
x
=
b
{\displaystyle A{\boldsymbol {x}}={\boldsymbol {b}}}
に対するSOR法は、
加速パラメータ
ω
{\displaystyle \omega }
が
0
<
ω
<
2
{\displaystyle 0<\omega <2}
のとき必ず収束する(Ostrowskiの定理)[ 1] 。
また、
ω
=
1
{\displaystyle \omega =1}
のときガウス=ザイデル法 と同じになり[ 1] 、
ω
{\displaystyle \omega }
が1 より小さいとき
ガウス=ザイデル法 より収束が遅くなる。ただし、ガウス=ザイデル法 で収束しないような問題には使える
[ 3] 。
加速パラメータ
ω
{\displaystyle \omega }
の選択
一般に加速パラメータ
ω
{\displaystyle \omega }
の値をあらかじめ最適に定めることはできない。そのため、問題ごとに適当な値を選択する必要がある。
しかし、
ω
{\displaystyle \omega }
の最適な値を決定することができる例も存在する。それは、係数行列
A
{\displaystyle A}
が、ある基本行列
P
{\displaystyle P}
に
対して
P
A
P
−
1
=
[
D
1
M
1
M
2
D
2
]
{\displaystyle PAP^{-1}=\left[{\begin{matrix}D_{1}&M_{1}\\M_{2}&D_{2}\end{matrix}}\right]}
という形の行列に相似変換することができ、さらにヤコビ法 の反復行列
M
J
=
−
D
−
1
(
L
+
U
)
{\displaystyle M_{J}=-D^{-1}\left(L+U\right)}
の
スペクトル半径
ρ
(
M
J
)
{\displaystyle \rho \left(M_{J}\right)}
が既知であるときである。
なお、上の行列内の
D
1
,
D
2
{\displaystyle D_{1},D_{2}}
は対角行列 である。
このとき、SOR法の反復行列のスペクトル半径
ρ
(
M
ω
)
{\displaystyle \rho \left(M_{\omega }\right)}
が最小となる
ω
{\displaystyle \omega }
の最適値は、
次の形で得られる[ 4] 。
ω
=
2
1
+
1
−
ρ
(
M
J
)
2
{\displaystyle \omega ={\frac {2}{1+{\sqrt {1-\rho \left(M_{J}\right)^{2}}}}}}
近年の研究
共役勾配法 をはじめとしたクリロフ部分空間法 の普及が進んだことでSOR法の使用が減ってしまったこともあったが[ 1] 、離散勾配法 (構造保存型数値解法の一つ) との関係が明らかになったことで再び注目されている[ 5] [ 6] 。
脚注
^ a b c d e f g 山本哲朗『数値解析入門』(増訂版)サイエンス社 〈サイエンスライブラリ 現代数学への入門 14〉、2003年6月。ISBN 4-7819-1038-6 。
^ 幸谷智紀 (13 October 2007). 連立一次方程式の解法2 -- 反復法 (PDF) (Report). 2018年3月30日閲覧 。
^ “SOR法 ” (2004年12月16日). 2018年3月30日 閲覧。
^ Varga, R. S. (2009). Matrix iterative analysis (Vol. 27). Springer Science & Business Media.
^ 宮武勇登, 曽我部知広, & 張紹良. (2017). 微分方程式に対する離散勾配法に基づく線形方程式の数値解法の生成. 日本応用数理学会 論文誌, 27(3), 239-249.
^ Miyatake, Y., Sogabe, T., & Zhang, S. L. (2018). On the equivalence between SOR-type methods for linear systems and the discrete gradient methods for gradient systems. en:Journal of Computational and Applied Mathematics , 342, 58-69.
参考文献
関連項目