추정기(estimator)

Kiwoong Park·2024년 3월 8일

추정기

정의

정적(static) 추정 문제는 다음과 같이 측정 벡터의 집합 zz를 함수로 하는 상수벡터 xx의 추정기(estimator)를 설계하는 문제다.

x^=g(z)\hat{x}=g(z)

추정기는 미지의 상수벡터 xx를 어떤 성격으로 규정하느냐에 따라 크게 베이즈 방법(Bayesian approach)과 비 베이즈 방법(non-Bayesian approach)로 나뉜다.

베이즈 방법에서는 xx를 랜덤벡터로 본다. 따라서 xx에 관한 사전(a priori) 확률 정보를 알고 있다고 가정한다. 측정 벡터 zzxx에 관한 확률 정보를 좀 더 정확하게 보강해주는 역할을 한다. 베이즈 방법에는 최대사후(MAP, maximum a posteriori) 추정기와 최소평균제곱오차(MMSE, minimum mean-square error) 추정기가 있다.

반면, 비 베이즈 방법에서는 xx를 미지의 확정된 값으로 본다. 따라서 xx에 관한 사전 확률정보가 전혀 없으며 xx에 관한 정보는 오로지 측정 벡터 zz를 통해서만 얻을 수 있다고 가정한다. 비 베이즈 방법에는 최대빈도(ML, maximum likelihood) 추정기와 최소제곱오차(LSE, least square error) 추정기가 있다.

강화학습에서 언급되는 추정기는 최대사후(MAP) 추정기와 최대빈도(ML) 추정기다.

최대사후 추정기(MAP, Maximum A Posteriori)

사전확률(prior probability)을 이용하는 방법. 즉, xx에 관한 사전 확률정보, p(x)p(x)를 알고 있다고 가정한다.

베이즈 정리에 의하면 측정 벡터 zz를 조건으로 하는 미지의 랜덤벡터 xx의 확률밀도함수는 다음과 같이 주어진다.

p(xz)=p(zx)p(x)p(z)p(x|z) = \frac{p(z|x)p(x)}{p(z)}

여기서 p(x)p(x)는 벡터 zz가 측정되기 전인 사전에 알고 있는 xx의 확률밀도함수이고, p(z)p(z)는 측정 벡터 zz의 확률밀도함수로서 측정 과정의 확률 정보를 나타낸다. p(zx)p(z|x)xx를 조건으로 하는 zz의 조건부 확률밀도함수로서 xx에 따라 특정 측정 벡터 zz가 얼마나 자주 나타나는가를 나타내는 빈도함수(likelihood function)다. 한편 p(xz)p(x|z)zz가 측정된 후(a posteriori)에 주어진 xx의 조건부 확률밀도함수다.

최대사후 추정기는 zz를 조건으로 하는 미지의 랜덤벡터 xx의 조건부 확률밀도함수가 최대값일 때의 xx의 값(mode)을 xx의 추정값으로 정의한다.

x^MAP=argmaxp(xz)=argmax[p(zx)p(x)]\hat{x}^{MAP} = argmax p(x|z) \\ = argmax[p(z|x)p(x)]

최대빈도 추정기(Maximum Likelihood Estimator)

사전확률(prior probability)을 이용하지 않는 방법

비 베이즈 추정기는 추정하고자 하는 벡터 xx를 미지의 확정된 값으로 본다. 측정 벡터 zz는 벡터 xx 값에 따라 달라질 것이므로 zz의 확률밀도함수는 미지의 벡터 xx의 함수가 된다. 즉, p(z(x))p(z(x))로 표기 할 수 있다.

최대빈도 추정기는 측정 벡터 zz의 확률밀도함수를 최대로 하는 xx의 값을 추정값으로 정의한다. 즉,

x^ML=argmaxp(z(x))\hat{x}^{ML}=argmaxp(z(x))

한편, 최대빈도(ML) 추정기를 정의할 때 최대사후(MAP) 추정기와의 표기의 일관성을 유지하기 위해 확률밀도함수 p(z(x))p(z(x))를 다음과 같이 조건부 확률밀도함수의 형식으로 표현하기도 한다.

x^ML=argmaxp(zx)\hat{x}^{ML}=argmaxp(z|x)

여기서 p(zx)p(z|x)xx를 조건으로 하는 zz의 조건부 확률밀도함수로서 xx에 따라 특정 측정 벡터 zz가 얼마나 자주 나타나는가를 나타내는 빈도함수다. 이 표기법은 최대빈도(ML) 추정기의 정의를 명확하게 이해하는 데 도움이 되고 표기의 일관성이 유지되는 장점이 있다.

MAP와 ML의 차이

최대사후(MAP) 추정기와 최대빈도(ML) 추정기는 확률밀도함수를 최대로 하는 값을 추정값으로 정의한다는 점에서 같다. 하지만 MAP는 미지의 값 xx를 랜덤벡터로 보며 xx에 관한 사전 확률정보를 알고 있다고 가정하지만, ML 추정기는 xx를 미지의 확정된 값으로 보며 xx에 관한 사전 확률정보가 전혀 없고 xx에 관한 정보는 오로지 측정 벡터 xx를 통해서만 얻을 수 있다고 가정한다는 차이점이 있다.

예시를 통해 알아 보면,
다음과 같은 스칼라 선형 측정 방정식이 주어졌다고 하자

z=x+vz=x+v

여기서 측정 노이즈 vv는 평균이 0이고 분산이 σv2\sigma_v^2인 가우시안 랜덤 변수라고 가정하자

vN(0,σv2)v\sim N(0,\sigma_v^2)

먼저, xx를 미지의 확정된 값으로 보고 xx의 빈도함수를 구해보자

p(zx)=N(zx,σv2)=12πσv2exp((zx)22σv2)p(z|x)=N(z|x, \sigma_v^2)=\frac{1}{\sqrt{2\pi\sigma_v^2}}exp(-\frac{(z-x)^2}{2\sigma_v^2})

ML 추정값은 xx의 빈도함수를 최대로 하는 값이므로 다음과 같이 측정값 zz를 추정값으로 산출한다.

x^ML=argmaxp(zx)=z\hat{x}^{ML}=argmaxp(z|x)=z

이번에는 xx의 사전 확률정보가 다음과 같이 가우시안 확률밀도함수로 주어졌다고 가정하자.

p(x)=N(xxˉ,σx2)p(x)=N(x|\bar{x},\sigma_x^2)

여기서 xxzz는 서로 독립인 랜덤 변수로 가정한다. 그러면 측정변수 zz를 조건으로 하는 랜덤 변수 xx의 확률밀도함수는 다음과 같이 주어진다.

p(xz)=p(zx)p(x)p(z)=p(zx)p(x)p(zx)p(x)dx=1c0exp((zx)22σv2(xxˉ)22σx2)p(x|z)=\frac{p(z|x)p(x)}{p(z)} \\ =\frac{p(z|x)p(x)}{\int p(z|x)p(x)dx} \\ = \frac{1}{c_0}exp(-\frac{(z-x)^2}{2\sigma_v^2}-\frac{(x-\bar{x})^2}{2\sigma_x^2})

여기서 c0c_0는 정규화 상수다. 위 식을 좀 더 전개해 정리하면 다음과 같은 가우시안 확률밀도함수를 얻을 수 있다.

p(xz)=1c1exp((xx^(z))22σ12)p(x|z)=\frac{1}{c_1}exp(-\frac{(x-\hat{x}(z))^2}{2\sigma_1^2})

References
[1] 박성수. (2020). 수학으로 풀어보는 강화학습 원리와 알고리즘. 위키북스

profile
You matter, never give up

0개의 댓글