[AI Bootcamp] N124 - Bayesian Inference

HYUNG JIN·2021년 7월 23일
0

AI Bootcamp

목록 보기
8/17
post-thumbnail

Session Review

총 확률의 법칙

A라는 특정 확률 변수에 대해, 모든 가능한 이벤트의 총 확률은 1이다

👀 2개의 변수를 고려 한다면 (AABB), 두 변수가 연관이 있는 경우, BB가 일어난 상황에서의, AA에 대한 확률 P(A)P(A)는, P(AB)P(A|B)의 형태로 표현

c.f. 반대로 연관이 없는 경우에는 BB가 일어난 상황에서, AA에 대한 확률 P(A)P(A)P(A)P(B)P(A) * P(B)

P(AB)=nP(ABn)P(Bn)P(A|B) = \sum_n P(A | B_n) P(B_n)

즉, A의 모든 확률은 주어진 BnB_n에 대해서, 각각 일어날 확률의 총합

조건부 확률

다른 이벤트가 일어난 상황에서의 조건

e.g. B라는 정보가 주어진 상황에서 A의 확률 = B와의 교집합들의 합으로 구성

베이지안 통계(Bayesian Inference)

베이지안: 기존에 있던 데이터에 새로운 데이터가 추가되었을 때, 선택을 업데이트 하는 것

👀 B라는 새로운 정보가 들어왔을 때, 우리가 알고있었던 A라는 지식을 업데이트할 수 있다

👀 사전확률을 바탕으로 사후확률을 업데이트: 추가정보가 많아질수록 우리가 말하고자 하는 모델은 점점 정교해짐

  • 베이지안 최적화: 사후확률을 계속해서 업데이트 해 나가면서 최적화를 진행 (수많은 최적화 방법 중 하나)

Food for Thought

Bayesianism vs. Frequentism

데이터에 접근하는 관점에서 차이가 있음

BayesiansimFrequentism
새로운 정보 -> 기존을 업데이트기존 정보를 바탕으로 가설 세우고, 판단
profile
Always stay confident

0개의 댓글