뉴턴-랩슨 알고리즘과 반복적 가중 최소제곱법(Iteratively Reweighted Least Squares, IRLS)이 동일한 방법임을 수학적으로 보이는 주요 아이디어는, 로그우도 함수를 현재 추정치 근방에서 2차 테일러 전개로 근사한 후, 그 극대점을 찾는 과정이 가중 최소제곱 문제의 해와 동일하게 나타난다는 점입니다.
먼저, GLM에서 모수 θ에 대한 로그우도 함수 ℓ(θ)를 현재 추정치 θ(t) 근방에서 2차 테일러 전개하면
와 같이 표현됩니다. 여기서 y는 관측치 벡터, μ(t)는 현재 모형 예측값(즉, μ(t)=g−1(Xθ(t)))입니다.
따라서 뉴턴-랩슨 갱신식은
θ(t+1)=θ(t)+(XTWX)−1XT(y−μ(t))
로 쓸 수 있습니다.
이 식을 보면, XTWX와 XT(y−μ(t))는 가중 최소제곱법(normal equations for weighted least squares)의 형태와 동일합니다. 더 구체적으로, 다음과 같이 "작업 반응 변수(working response)" z를 정의할 수 있습니다.
z=Xθ(t)+(W)−1(y−μ(t)).
그러면 위의 갱신식은
θ(t+1)=argθmin∥W(z−Xθ)∥2,
와 같이 표현할 수 있으며, 이는 가중치 행렬 W를 사용하는 최소제곱 문제의 해입니다.
즉, 뉴턴-랩슨 방법은 현재 추정치 근방에서 로그우도 함수를 2차로 근사하여, 그 근사된 이차형식을 최대화하는 문제를 풀게 되는데, 이 과정이 본질적으로 "가중 최소제곱 문제"를 푸는 것과 동일합니다. 이 때문에 GLM의 최대우도 추정을 위해 뉴턴-랩슨 알고리즘을 사용하는 것을 "반복적으로 가중 최소제곱법(iteratively reweighted least squares)"이라고 부릅니다.
요약하면,
1. 로그우도 함수를 2차 테일러 전개로 근사하면 이차 함수(포물선 형태)를 얻게 됩니다.
2. 이 이차 함수의 극대값을 찾는 과정이 선형 방정식(정규방정식)으로 표현되며, 이는 가중 최소제곱 문제의 해와 동일합니다.
3. 따라서, 각 반복 주기마다 새로운 가중치 행렬 W와 작업 반응 변수 z를 통해 모수 추정치를 갱신하는 과정이 가중 최소제곱 피팅의 형태를 띠게 됩니다.
이러한 이유로 뉴턴-랩슨 알고리즘은 IRLS라고도 불리며, GLM의 ML 추정에서 중요한 역할을 합니다.