Generalized Least Squares (일반화최소제곱법, GLS)

stat._.jun·2026년 2월 10일

기존에 우리가 고려했던 선형모형과 달리, 다음의 모형을 고려해보자.

YN(Xβ,σ2V)\begin{aligned} Y \sim N(X\beta , \sigma^2V) \end{aligned}

VV는 우리가 알고있다고 가정하고, σ2\sigma^2만 모를때, 어떻게 추정할까?
우선, Least Squares Estimator을 찾아보고 싶다. 이렇게 모형에 변주가 들어올때, 항상 LSE를 적용하는 방법은 바로 적용하는게 아니라 적용할 수 있는 Form을 만들고 적용하는 거다.

우선, 고유값 분해를 통해 V=ΓΓTV = \Gamma \Gamma^T라 하자.
양변에 Γ1\Gamma^{-1}를 곱하면 Γ1Y=Γ1Xβ+Γ1ϵ\Gamma^{-1} Y = \Gamma^{-1}X\beta + \Gamma^{-1}\epsilon. 이때, Γ1Y=Z,Γ1X=W\Gamma^{-1} Y = Z, \Gamma^{-1}X = W라고 하자.

Cov(W)=Γ1Cov(Y)(Γ1)T=σ2ICov(W) = \Gamma^{-1}Cov(Y)(\Gamma^{-1})^T = \sigma^2I

그러므로 변형된 모형 Z=Wβ+Γ1ϵZ = W \beta + \Gamma^{-1} \epsilon에 대해서 LSE를 적용할 수 있다. 그러면 우리의 회귀 식은 아래와 같이 주어진다.

β^G=(WTW)1WTZ=(XT(Γ1)TΓ1X)1XT(Γ1)Γ1Y=(XT(ΓΓT)1X)1XT(ΓΓT)1Y=(XTV1X)1XTV1Y\begin{aligned} \hat \beta_G &= (W^TW)^{-1}W^TZ \\ &= (X^T(\Gamma^{-1})^T\Gamma^{-1}X)^{-1}X^T (\Gamma^{-1})\Gamma^{-1}Y \\ &= (X^T(\Gamma\Gamma^T)^{-1}X)^{-1}X^T(\Gamma\Gamma^T)^{-1}Y \\ &= (X^TV^{-1}X)^{-1}X^TV^{-1}Y \end{aligned}

이렇게 구해진 해는 Gauss-Markov 정리 역시 만족한다. 공분산 행렬은 아래와 같이 주어진다.

Cov(β^G)=σ2(XTV1X)1XTV1VV1X(XTV1X)1=σ2(XTV1X)1\begin{aligned} Cov(\hat \beta_G) &= \sigma^2 (X^TV^{-1}X)^{-1}X^TV^{-1} VV^{-1}X(X^TV^{-1}X)^{-1}\\ &=\sigma^2(X^TV^{-1}X)^{-1} \end{aligned}

0개의 댓글