MLE vs LS
MLE vs LS
- MLE 는 오류 분포를 모델링하고 가능도 함수를 최대화함으로써 더 포괄적인 접근 방식 제공
- MLE 에서는 오차항에 정규 분포를 가정하여 추정치의 유도 및 계산이 단순화 됨
- LS 는 더 간단하지만 오류 분포를 모델링하지 않고 오류를 최소화하는데 중점
접근 방식
- LS 는 예측값과 실제값 간의 오차를 최소화하는 데 중점
- MLE 는 데이터 관측할 확률을 최대화 하는 파라미터를 찾는 데 중점
오차항
- LS 는 오차가 정규 분포를 따르고 일정한 분산을 갖는다고 가정
- MLE에서의 오차항: 오차항은 핵심 요소로 예측을 더 정확하고 신뢰할 수 있게 함
선형 회귀 파라미터 추정 방법
해결책 1: 최소제곱법 (Least Squares)
해결책 2: 최대 가능도 추정 (Maximum Likelihood Estimation)
-
목표
- = 가능도를 최대화하는 매개변수(θ; β1 및 β0) 찾기
- = 가능도를 최대화하는 평균(μ) 및 분산(σ2) 찾기
- = 확률 밀도 함수(PDF; p(y)) 계산하기
-
우도 함수 가정
- ϵ∼N(0,σ2); 가정
- yi∼N(f(xi),σ2)=Y∼N(f(x∣θ),σ2) (오류의 분포를 따름)
-
우도 함수 최대화:
- L(θ)=Max∏i=1np(yi∣xi,θ)=Max∏i=1n2πσ21exp{−2σ2(yi−f(xi;θ))2}
- β0^ (b0에 대한 편미분): ∂b0∂L(θ)=0
- β1^ (b1에 대한 편미분): ∂b1∂L(θ)=0
- σ2^ (σ2에 대한 편미분): ∂σ2∂L(θ)=0
결론
- LS 목표: MSE=Σi=1nei2=Σi=1n(yi−y^i)2=Σi=1n(yi−(b0+b1xi))2 최소화 하기
- MLE 목표: NLL=−logL(b,σ2)=2nlog(2πσ2)+2σ21∑i=1n(yi−(b0+b1xi))2 최소화 하기
최소제곱법은 기하학적인 오차 최소화에, 최대 가능도 추정은 통계적인 데이터 생성 확률 최대화에 기반을 두지만, 결론적으로 가우시안 분포를 가정한 MLE 는 LS 와 수학적으로 동일합니다.