AI Math 추가정리) MLE, MAP 정리

한량·2021년 8월 10일
0

[U-stage] Python & AI Math

목록 보기
11/11

함수표기법( ; 와 | 의 차이)


모수와 표본

  • 모집단(popilation): 관측 대상이 되는 전체 집단
    • 모수(parameter): 모평균, 모표준편차, 모분산등 모집단의 데이터
      • 모평균: μ\mu
      • 모분산: σ2\sigma^2
      • 모표준편차: σ\sigma
  • 표본(sample): 모집단의 부분집합
    • 표본 통계량(sample statistic): 표본에 의존하는 통계량
      • 표본평균: Xˉ{\displaystyle {\bar {X}}}
      • 표본분산: S2S^2
      • 표본표준편차: SS

확률변수(Random Variable)

X=fx(x;θ)=p(x;θ)X = fx(x;\theta) = p(x;\theta)

확률변수 XX는 이산(discrete)일 경우 확률질량함수, 연속(continuous)일 경우 확률밀도함수라고 부른다.

  • xx: XX가 취할 수 있는 값
  • θ\theta: 확률밀도함수의 모수
    • 둘 다 scalar, vector 가능

최대가능도 추정법(MLE, Maximum Likelihood Estimation)

  1. 모수추정에서는 xx(어떤 분포에 대해 나올 수 있는 확률밀도, 상수벡터)를 알고, θ\theta(변수벡터)를 모른다.

    L(θ;x)=fx(x;θ)=p(x;θ)L(θ;x) = fx(x;\theta) = p(x;\theta)
  2. 복수의 표본값에 대한 결합확률밀도

    p(x;θ)=p(x1,x2,,xn;θ)p(x;θ)=p(x_1,x_2,⋯,x_n;θ)
  3. x1,x2,...xnx_1, x_2, ... x_ni.i.di.i.d이기 때문에 결합확률밀도함수는 독립사건의 확률 계산에 의해 다음처럼 곱으로 표현된다

    P(xθ)=k=1nP(xkθ)P(x|\theta) = \prod_{k=1}^{n}P(x_k|\theta)
  4. 위 식의 결과값이 가장 커지는 θ\theta를 모수의 추정값 θ^\hat\theta
    여러 개의 표본 데이터가 있는 경우에 대해, 이 식을 likelihood function이라고 하고 보통은 자연로그를 취하여 아래와 같이 log-likelihood function L(θx)L(θ|x) 를 이용

L(θx)=logP(xθ)=i=1nlogP(xiθ)L(\theta| x) = \log P(x|\theta) = \sum_{i=1}^{n}\log P(x_i | \theta)
  • L(θ;x)L(θ;x)
    • 가능도함수, likelihood
    • 주어진 데이터 x에 대해, 모수(parameter) θθ를 변수로 둔 함수
      데이터가 주어져있는 상황에서, θθ를 변형시킴에 따라 값이 바뀌는 함수
    • 모수 θ를 따르는 분포가 데이터 xx를 관찰할 가능성
  • P(xθ)P(x|θ)
    • 확률밀도(질량)함수
    • θθ가 주어져있을 때 xx에 대한 함수
  • 둘이 같은건 정의에 의해서인지??
    • 가능도 L(θ;x)L(\theta;x)의 경우 θ를 따르는 확률분포에서 xx가 가지는 확률(밀도),
    • f(xθ)f(x|\theta)는 사건 θθ일 때 xx일 확률(밀도)
      로 값이 동일하겠지만 보는 초점이 달라 가능도는 주어진 x에 대한 θ의 함수, 뒤의 확률분포는 주어진 θθxx의 함수 정도의 차이가 있습니다.

  • 만약 데이터 집합 X가 i.i.d일 경우(독립적으로 추출되었을 경우)
    L(θ;x)은 각 P(x|θ)의 곱(각 사건이 일어날 가능성의 곱)으로 나타낼 수 있다
    --> 이것도 정의에 의해서인지?
    ----> 독립이기 때문에!!
  • 양변에 log를 씌우면 log-likelihood는 log-확률분포들의 덧셈으로 표현 가능
    --> 연산량을 O(n2)에서 O(n)으로 줄일 수 있음

중간정리


최대사후확률 추정법(MAP, Maximum a Posteriori)

  • MLE의 단점(observation에 따라 값이 너무 민감하게 변함)을 해결하기 위해 사용

  • 여기서 f(θ|x)는 P(θ|x)와 동일
  • θ가 주어지고, 그 θ에 대한 데이터들의 확률을 최대화하는 것이 아니라, 주어진 데이터에 대해 최대 확률을 가지는 θ를 찾는다
  • MAP를 계산하기 위해서는 f(x|θ), posteriori가 필요하지만 우리가 아는건 f(θ|x), likelihood뿐
    --> Bayer's theorem 이용

Bayer's theorem

P(θX)=P(Xθ)P(θ)P(X)P(θ \mid X)=\frac{P(X \mid θ) P(θ)}{P(X)}
  • P(θ|X), posterior: 주어진 데이터에 대한 현상의 확률
    data를 관찰했을 때, 이 parameter(θ)가 성립할 확률, 측정 이후의 확률이기 때문

  • P(X|θ), likelihood: observation
    현재 주어진 parameter에서 이 data가 관찰될 확률, 사전확률이 없을 경우 분석하기 어렵다. 임의로 설정하는 경우도 있음.

  • P(θ), prior: 현상에 대한 사전정보
    prior distribution, data에 대해 측정하기 전에 가정한 확률

  • P(X), evidence: data 전체의 분포

  • P(X)는 θ에 대한 식이 아니기 때문에 생략 가능
  • 따라서 P(θ)를 알고있다면 MLE 대신 MAP를 사용하는 것이 가능
    --> θ에 대한 사전정보(assumption)을사용해 결과를 향상시킬 수 있다
profile
놀고 먹으면서 개발하기

0개의 댓글