AI 부트캠프 2기 - Day 9

Jeongwoo Lee·2021년 3월 16일

Codestates AI Bootcamp

목록 보기
9/19

[Today I Learned]

Warm-up

  • 이유 불충분의 원리: 아무 정보가 없는 상황에서, 가능한 모든 사건에 동일한 확률을 부여한다 (주관적인 사전확률 설정에 사용됨)
  • 베이즈 정리 (Bayesian rule) : 사전확률과 사후확률 사이의 관계를 나타내는 정리
  • 몬티홀 문제/딜레마
    • 베이즈 정리를 활룡한 예시

Session - n124

  • 총 확률의 법칙: 모든 가능한 사건의 총 확률 합은 1

  • 조건부 확률 : 한 사건이 일어났다는 전제 하에서 다른 사건의 발생 확률

    • P(AB)=P(AB)P(B)=nP(ABn)P(Bn)P(A|B) = \frac{P(A∩B)}{P(B)} = ∑_nP(A|B_n)P(B_n)

    • 사건 B가 일어나는 경우에 사건 A가 일어날 확률

  • 베이지안 (Bayesian) : 새로운 정보가 기존의 추론에 어떻게 영향을 미치는지를 나타내며, 사전확률(Prior)이 새로운 정보를 통해 갱신하는 것

    • P(AB)=P(BA)P(A)P(B)P(A|B) = \frac{P(B|A)P(A)}{P(B)}
    • P(A)P(A) : 사전 확률 (Prior)
    • P(AB)P(A|B) : 사후 확률 (Posterior)
    • P(BA)P(B|A) : 가능도 (Likelihood)
    • P(B)P(B) : 정규화 상수 (Normalizing Constant) 또는 증거(Evidence)
  • 베이지안을 활용한 다양한 예시

  • 신뢰구간 with 베이지안

  • 베이지안 최적화 (Bayesian Optimize)
    - 베이지안을 활용한 하이퍼파라미터 튜닝 방법

과제

<과제 하면서 새롭게 배운 내용>

이번 과제 자체는 어렵지 않았지만 도전과제에서 영어를 해석하고 문제를 이해하는 것에서 애를 먹었다.

에전에 배운 베이지안 통계 수업을 다시 복습해봐야겠다.

profile
열심히 하자

0개의 댓글