[딥러닝수학] 확률과 통계

Deok Jong Moon·2022년 3월 15일
0
post-thumbnail
post-custom-banner

book title : 딥러닝을 위한 수학
pages : 149 ~ 153
key concepts :

  • 확률변수 :

    • P(X)P(X). (예, X : 동전 한 번 던졌을 때 나오는 동전의 면)
    • 구체적으로 하나만 집어서 표현 가능 P(X=H)P(X=H) (동전 한 번 던저셔 앞 면이 나오는 확률)
  • 확률분포(probability distribution) :

    • 확률이 가질 수 있는 값과 그에 대한 확률을 표로 정리한 것
    • 이산형 확률분포
      • 표로 정리 가능
    • 연속형 확률분포
  • 이항분포(binomial distribution)

    • 무언가 성공, 실패 같이 단 두 개로 나올 수 있는 확률을 가진 사건을 여러번 거칠 때 각각의 시도마다 성공이 나올 확률을 분포로서 나타낸 것
    • 이러한 실험을 베르누이 실험이라고 한다.
    • 막대 그래프로 표현가능함(히스토그램이 됨)
  • 위의 이항분포를 히스토그램으로 나타낼 때 시도 횟수(nn)이 더 커질수록 연속 함수(continuous function)의 모양이 됨.

  • 이것이 정규분포(normal distribution)이 되고, 식은 아래와 같다.

    • P(X1=1)=pP(X_1 = 1) = p 라고 할 때 μ=np\mu=np 이고 σ2=np(1p)\sigma^2=np(1-p)이다.
    • f(x,μ,σ)=12πσe((xμ)22σ2)f(x, \mu, \sigma) = \frac{1}{\sqrt{2\pi}\sigma}e^{(- \frac{(x - \mu)^2}{2 \sigma^2})}
    • 근데 이건 어떻게 하다가 이런 공식이 나왔을까... 좀 더 찾아봐야겠다.
  • 이항분포함수가 정규분포함수에 가까워지는 것을 중심극한정리(central limit theorem)이라고 함.

이 책에 확률과 통계 부분이 있길래 굉장히 기대했었는데, 기대한 만큼 굉장히 짧게 설명해주고 있다...... 그래서 Brilliant 구독하기 시작했고, 이를 통해 데이터사이언스와 연계된 통계 부분을 더 보충해야겠다.

profile
'어떻게든 자야겠어'라는 저 아이를 닮고 싶습니다
post-custom-banner

0개의 댓글