共役勾配法(きょうやくこうばいほう、英: conjugate gradient method、CG法とも呼ばれる)は対称正定値行列を係数とする連立一次方程式を解くためのアルゴリズムである。反復法として利用され、コレスキー分解のような直接法では大きすぎて取り扱えない、大規模な疎行列を解くために利用される。そのような問題は偏微分方程式などを数値的に解く際に常に現れる。

共役勾配法は、エネルギー最小化などの最適化問題を解くために用いることもできる。

双共役勾配法は、共役勾配法の非対称問題への拡張である。

また、非線形問題を解くために、さまざまな非線形共役勾配法が提案されている。

詳説

対称正定値行列Aを係数とするn元連立一次方程式

の解をx*とする。

直接法としての共役勾配法

非零ベクトルuv

を満たすとき、uvAに関して共役であるという。Aは対称正定値なので、左辺から内積

を定義することができる。この内積に関して2つのベクトルが直交するなら、それらのベクトルは互いに共役である。 この関係は対称で、uvに対して共役なら、vuに対して共役である(この場合の「共役」は複素共役と無関係であることに注意)。

{pk}をn個の互いに共役なベクトル列とする。pkは基底Rnを構成するので、Ax = bの解x*をこの基底で展開すると、

と書ける。ただし係数は

で与えられる。

この結果は、上で定義した内積を考えるのが最も分かりやすいと思われる。

以上から、Ax = bを解くための方法が得られる。すなわち、まずn個の共役な方向を見つけ、それから係数αkを計算すればよい。

反復法としての共役勾配法

共役なベクトル列pkを注意深く選ぶことにより、一部のベクトルからx*の良い近似を得られる可能性がある。そこで、共役勾配法を反復法として利用することを考える。こうすることで、nが非常に大きく、直接法では解くのに時間がかかりすぎるような問題にも適用することができる。

x*の初期値をx0 = 0 とする。x*が二次形式

を最小化する一意な解であることに注意し、最初の基底ベクトルp1x = x0でのfの勾配Ax0b=−bとなるように取る。このとき、基底の他のベクトルは勾配に共役である。そこで、この方法を共役勾配法と呼ぶ。

rkkステップ目での残差

とする。rkx = xkでのfの負の勾配であることに注意されたい。最急降下法はrkの方向に進む解法である。pkは互いに共役でなければならないので、rkに最も近い方向を共役性を満たすように取る。これは

のように表すことができる(記事冒頭の図を参照)。

アルゴリズム

以上の方法を簡素化することにより、Aが実対称正定値である場合にAx = bを解くための以下のアルゴリズムを得る。初期ベクトルx0は近似解もしくは0とする。


  
    
      
        
          r
          
            0
          
        
        =
        b
        
        A
        
          x
          
            0
          
        
      
    
    {\displaystyle r_{0}=b-Ax_{0}}
  


  
    
      
        
          p
          
            0
          
        
        =
        
          r
          
            0
          
        
      
    
    {\displaystyle p_{0}=r_{0}}
  


for (k = 0; ; k  ) 
    
  
    
      
        
          α
          
            k
          
        
        =
        
          
            
              
                r
                
                  k
                
                
                  
                    T
                  
                
              
              
                p
                
                  k
                
              
            
            
              
                p
                
                  k
                
                
                  
                    T
                  
                
              
              A
              
                p
                
                  k
                
              
            
          
        
      
    
    {\displaystyle \alpha _{k}={\frac {r_{k}^{\rm {T}}p_{k}}{p_{k}^{\rm {T}}Ap_{k}}}}
  

    
  
    
      
        
          x
          
            k
             
            1
          
        
        =
        
          x
          
            k
          
        
         
        
          α
          
            k
          
        
        
          p
          
            k
          
        
      
    
    {\displaystyle x_{k 1}=x_{k} \alpha _{k}p_{k}}
  

    
  
    
      
        
          r
          
            k
             
            1
          
        
        =
        
          r
          
            k
          
        
        
        
          α
          
            k
          
        
        A
        
          p
          
            k
          
        
      
    
    {\displaystyle r_{k 1}=r_{k}-\alpha _{k}Ap_{k}}
  


    if 
  
    
      
        
          r
          
            k
             
            1
          
        
      
    
    {\displaystyle r_{k 1}}
  
 が十分に小さい then
        break

    
  
    
      
        
          β
          
            k
          
        
        =
        
          
            
              
                r
                
                  k
                   
                  1
                
                
                  
                    T
                  
                
              
              
                r
                
                  k
                   
                  1
                
              
            
            
              
                r
                
                  k
                
                
                  
                    T
                  
                
              
              
                r
                
                  k
                
              
            
          
        
      
    
    {\displaystyle \beta _{k}={\frac {r_{k 1}^{\rm {T}}r_{k 1}}{r_{k}^{\rm {T}}r_{k}}}}
  

    
  
    
      
        
          p
          
            k
             
            1
          
        
        =
        
          r
          
            k
             
            1
          
        
         
        
          β
          
            k
          
        
        
          p
          
            k
          
        
      
    
    {\displaystyle p_{k 1}=r_{k 1} \beta _{k}p_{k}}
  

結果は 
  
    
      
        
          x
          
            k
             
            1
          
        
      
    
    {\displaystyle x_{k 1}}
  

Octaveでの共役勾配法の記述例

Gnu Octaveで書くと以下のようになる。

 function [x] = conjgrad(A,b,x0)

    r = b - A*x0;
    w = -r;
    z = A*w;
    a = (r'*w)/(w'*z);
    x = x0   a*w;
    B = 0;

    for i = 1:size(A)(1);
       r = r - a*z;
       if( norm(r) < 1e-10 )
            break;
       endif
       B = (r'*z)/(w'*z);
       w = -r   B*w;
       z = A*w;
       a = (r'*w)/(w'*z);
       x = x   a*w;
    end
 end

前処理

前処理行列とは、Aと同値なP-1A (PT)-1の条件数がAより小さく、Ax=bよりP-1A (PT)-1 x′ =P-1b′の方が容易に解けるような正定値行列 P.PTを指す。前処理行列の生成には、ヤコビ法、ガウス・ザイデル法、対称SOR法などが用いられる。

最も単純な前処理行列は、Aの対角要素のみからなる対角行列である。これはヤコビ前処理または対角スケーリングとして知られている。対角行列は逆行列の計算が容易かつメモリも消費しない点で、入門用として優れた方法である。より洗練された方法では、κ(A)の減少による収束の高速化とP-1の計算に要する時間とのトレードオフを考えることになる。

正規方程式に対する共役勾配法

任意の実行列Aに対してATAは対称(半)正定値となるので、係数行列をATA、右辺をATbとする正規方程式を解くことにより、共役勾配法を任意のn×m行列に対して適用することができる(CGNR法)。

反復法としては、ATAを明示的に保持する必要がなく、行列ベクトル積、転置行列ベクトル積を計算すればよいので、Aが疎行列である場合にはCGNR法は特に有効である。ただし、条件数κ(ATA)がκ(A2)に等しいことから収束は遅くなる傾向があり、前処理行列を使用するCGLS (Conjugate Gradient Least Squares)、LSQRなどの解法が提案されている。LSQRはAが悪条件である場合に最も数値的に安定な解法である。

脚注

出典

参考文献

関連項目

  • 双共役勾配法 (BICG)
  • 非線形共役勾配法

外部リンク

  • Conjugate Gradient Method by Nadir Soualem.
  • Preconditioned conjugate gradient method by Nadir Soualem.
  • An Introduction to the Conjugate Gradient Method Without the Agonizing Pain by Jonathan Richard Shewchuk.
  • Iterative methods for sparse linear systems by Yousef Saad
  • LSQR: Sparse Equations and Least Squares by Christopher Paige and Michael Saunders.

共役勾配法(7)

共役勾配法 機械学習基礎理論独習

勾配降下法 関数の傾きに着目して最小値を求める方法

非線形共役勾配法 conjugate gradient method JapaneseClass.jp