A 라는 특정 확률 변수에 대해, 모든 가능한 이벤트의 총 확률은 1
다른 이벤트가 일어난 상황에서의 조건
베이지안이란?
: 사전 확률. B라는 정보가 업데이트 되기 전의 사전확률
: 사후 확률. ( B라는 정보가 업데이트 된 이후의 사(이벤트)후 확률 )
: data
조건이 붙지 않은 확률은 사전확률("Prior"), 조건이 붙은 부분은 사후확률("Updated")로 다시 표현 할 수 있습니다.
Q . 이것이 중요한 이유는 무엇일까요?
( Hypothesis ) : 1번 문 뒤에 자동차가 있음
( Evidence ) : 진행자가 염소가 있는 문을 1개 열어줌
= 1번 문에 자동차가 있는 상황에서 진행자가 염소가 있는 문을 1개 열어줄 확률 = 1
= 자동차가 1번문에 있을 확률 :
마찬가지로 = 1
=
* 신뢰구간 with 베이지안
* Bayesian Optimize
'''
A : 답을 안다
B : 맞춘다
답을 안다 P(A) = p
답을 맞추고, 모른다 = P( B | not A ) = 1 / m
답을 맞추고 안다 = P( B | A ) = 1
P( B ) = P( B | A ) * P( A ) + P( B | not A ) * P( not A )
= 1 * p + 1/m * ( 1- p)
알고싶은 확률 : 학생이 문제의 답을 알고, 맞출 확률 : P( A | B )
P( A | B ) = P ( B | A ) * P( A ) / P( B )
'''
def correct(p, m):
ans = 1 * p / ( 1 * p + 1/m * ( 1- p ) )
return ans
'''
A : 질병이 있다
B : 질병으로 진단한다
질병이 있다 : P( A ) = 0.005
질병이 없고, 질병이 있다로 진단 : P( not B | A ) = 0.01
질병이 있다고 진단 받았을때, 실제로 질병을 가지고 있을 확률 : P( A | B )
P( A | B ) = P( B | A ) * P( A ) / P( B )
= tpr * prior / tpr * prior + fpr * ( 1- prior )
P( B ) = P( B | A ) * P( A ) + P( B | not A ) * P( not A )
prior(= 사전확률) : P( A )
tpr = True Positive Rate (= 민감도 ) : P( B | A )
fpr = False Positive Rate (= 1 - 특이도 ) : P( B | not A )
'''
def disease(prior, tpr, fpr):
ans = (tpr * prior) / (tpr * prior + fpr * ( 1- prior ))
return ans
질병 양성(+) | 질병 음성(-) | |
---|---|---|
진단 양성(+) | TN | FP |
진단 음성(-) | FN | TN |
🔥 도전과제