링크텍스트
위 강의를 듣고 정리하는 글입니다.
3.2 sample space and events
sample space: the set of all possible outcomes
event: a subset of sample space
E∩F를 EF라 표시
if EF=∅ → mutually exclusive(disjoint)
3.4 axioms of probability
E: Event
S: Sample space
- 0≤P(E)≤1
- P(S)=1
- mutually exclusive events E1,E2,…,En에 대해 event들의 합집합의 확률은 P(E1)+P(E2)+…+P(En)와 같다.
3.6 conditional probability
P(E∣F)=P(F)P(EF)
P(E∣F)의 notation: probability of E given F
E=EF∪EFc
EF와 EFc는 mutually exclusive하기 때문에
P(E)=P(EF)+P(EFc)=P(E∣F)P(F)+P(E∣Fc)P(Fc)
이걸 왜 하니?
P(E)를 직접 구하는 것보다 조건을 걸어주고 P(E∣F)와 P(E∣Fc)를 구해준 뒤 가중치(P(F)와 1−P(F))를 곱해주는 것이 더 쉬울 수 있음
예시)
바구니 1 - 빨간 공 1개, 노란 공 1개
바구니 2 - 빨간 공 1개, 노란 공 2개
눈을 감고 공을 하나 꺼낼 때 빨간 공일 확률은? → 바구니도 랜덤, 공도 랜덤이기 때문에 바구니에 조건을 주고 구하면 더 편하겠지
P(빨간공)=P(빨간공∣바구니1)P(바구니1)+P(빨간공∣바구니2)P(바구니2)
F1,F2,…,Fn가 서로 겹치지 않고(mutually exclusive) S를 다 덮는다면(exhaustive)
임의의 event E는 아래 식을 만족한다.
E=∪i=1nEFi
P(E)=Σi=1nP(EFi)=Σi=1nP(E∣Fi)P(Fi)
condition 바꿔보기
P(Fj∣E)는?
P(Fj∣E)=Σi=1nP(E∣Fi)P(Fi)P(E∣Fj)P(Fj)
위 식을 Bayes’ formula라고 함
3.8 independent events
P(EF)=P(E)P(F) or P(E∣F)=P(E)
위 조건을 만족한다면 independent