ドッグレッグ法
ドッグレッグ法(ドッグレッグほう、英: dog leg method)またはパウエルのドッグレッグ法(パウエルのドッグレッグほう、英: Powell's dog leg method)は、1970年にマイケル・J・D・パウエルによって導入された、非線形最小二乗問題を解くための反復的最適化アルゴリズムである[1]。レーベンバーグ・マルカート法と同様、ガウス・ニュートン法と勾配降下法とを組み合わせるが、信頼領域を明示的に使用する。各反復において、ガウス・ニュートン法により算出されたステップが信頼領域内にある場合は、それを使用して現在の解を更新する。ガウス・ニュートン法により算出されたステップが信頼領域外に出てしまう場合、コーシー点と呼ばれる最急降下方向に沿った目的関数の最小点を探す。コーシー点が信頼領域の外側にある場合は、信頼領域の境界まで切りつめられ、新しい解として採用される。コーシー点が信頼領域内にある場合、新しい解は、信頼領域の境界と、コーシー点とガウス・ニュートン法によるステップを結ぶ線(ドッグレッグステップ)との交点を次の解とする[2]。 このアルゴリズムの名前は、ドッグレッグステップの構成がゴルフのドッグレッグホールの形状に似ていることに由来する[2]。 定式化を所与として、次の形式の最小二乗問題を考える。 パウエルのドッグレッグ法は最適点に収束する点列をにより構築することでこの問題を解く。各反復において、ガウス・ニュートン法ステップは次のように与えられる。 ここで、はヤコビ行列を表わす。一方、最急降下方向は次式のように与えられる。 目的関数を最急降下方向に沿って線形化すると、以下を得る。 コーシー点におけるパラメータtの値を計算するには、最後の表式をtに関して微分したものとゼロを結んだ等式を解けばよく、解は次の式で与えられる。 所与の信頼半径のもと、パウエルのドッグレッグ法では次のように更新ステップを選択する。
出典参照文献
外部リンク
関連項目 |