ηのヤコビアンは、以下のパラメータに関する予想関数の偏導関数と等しい要素を持つN × P行列です。
Vi = V(θi)がθiで評価されるヤコビアン、つまり反復iの後のパラメータ推定値であるとします。ηの線形近似は以下になります。
これは、ガウス・ニュートン法と近似的推論の基礎を形成します。θ*が最小二乗推定値を示すとします。
N個のケースすべてを含む
V0は、要素{vnp}のN × P導関数行列です。これは、以下によって、残差z(θ) = y - η(θ)を近似させることに相当します。ここで、
およびガウスの増分δ0を計算して、近似残差平方和を最小化します、以下を使用します。
以後同様: .点
これはη(θ0)よりもyに近づける必要があり、値θ1 = θ0 + δ0を使用し、新しい残差z1 = y - η(θ1)、新しい導関数行列V1、および新しい増分を計算して、もう一度反復を実行します。増分が小さすぎて、パラメータのベクトルの要素に有用な変化が見られなくなるほど収束するまで、このプロセスは繰り返されます。
時には、ガウス・ニュートンの増分により、平方和が増加することがあります。これが発生すると、線形近似は、η(θ0)周辺の十分に小さな領域の実際の曲面にかなり近似します。平方和を減少させるには、ステップ因子λを導入して計算します。
λ = 1ではじまり、S(θ1) < S( θ0)となるまで半分に割っていきます。。1
1. Bates、Watts(1988)、Nonlinear Regression Analysis and Its Applications、John Wiley & Sons, Inc.