U-stage day4

사공진·2021년 8월 6일
0

AI tech 2기

목록 보기
4/23

1.강의 내용

[Ai Math 7강]통계학 맛보기

  • 통계적 모델링은 적절한 가정 위에서 확률분포를 추정하는 것이 목표이며, 기계학습과 통계학이 공통적으로 추구하는 목표
  • 우선 데이터가 특정 확률분포를 따른다고 가정 후 그 분포를 결정하는 모수를 추정하는 방법을 모수적 방법론이라 정의
  • 특정 확률분포를 가정하지 않고 데이터에 따라 모델의 구조 및 모수의 개수가 유연하게 바뀌면 비모수 방법론
  • 확률분포 종류
    베르누이분포, 카테고리분포, 베타분포, 감마분포, 정규분포 등
  • 통계량의 확률분포를 표집분포라 하고 표본평균의 표집분포는 N 이 커질수록 정규분포 𝒩(μ, σ2/N)를 따르게 됨
  • 최대가능도 추정법(MLE)
    이론적으로 가장 가능성이 높은 모수를 추정하는 방법 중 하나로
    데이터 집합 X 가 독립적으로 추출되었을 경우 로그가능도를 최적화함 이때, 로그가능도으로 시간복잡도를 O(n2)에서 O(n)으로 줄임
  • 딥러닝 모델의 가중치를 θ = (W(1), ..., W(L))라 표기했을 때 분류 문제에서 소프트맥스 벡터는 카테고리분포의 모수 (p1, ..., pK)를 모델링
  • one-hot 벡터로 표현한 정답레이블 y = (y1, ..., yK) 을 관찰데이터로 이용해 소프트맥스 벡터의 로그가능도를 최적화할 수 있음
  • 기계학습에서 사용되는 손실함수들은 모델이 학습하는 확률분포와 데이터에서 관찰되는 확률분포의 거리를 통해 유도
  • 데이터 공간상 두 개의 확률분포 P(x), Q(x)에 대해 분포 사이의 거리 계산시 쓰이는 함수
    총변동 거리(TV), 쿨백-라이블러 발산(KL), 바슈타인 거리 (Wasserstein Distance)

[Ai Math 8강]베이즈 통계학 맛보기

  • 베이즈 통계학을 이해하기 위해선 조건부 확률의 개념 이해가 선행되야 함
  • 베이즈 정리는 조건부 확률을 이용하여 정보를 갱신하는 방법 제공
  • 조건부확률 P(A|B)는 사건 B가 일어난 상황에서 사건 A가 발생할 확률을 의미
  • 베이즈 정리를 통해 새로운 데이터가 들어왔을 때 앞서 계산한 사후확률을 사전확률로 사용하여 갱신된 사후확률 계산 가능
  • 인과관계 추론 과정에서 조건부 확률을 다룸에 주의
    (데이터가 많아지면 조건부 확률만으로 커버 불가)
  • 인과관계는 데이터 분포의 변화에 강건한 예측모형을 만들 때 필요. 이때, 중첩요인의 효과를 제거하고 원인에 해당하는 변수만의 인과관계를 계산해야함

2.과제 수행 과정/결과물 정리

[필수과제] 4, 5 완료
[필수퀴즈] 7, 8강

3.피어 세션

학습 내용 공유

1.과제 코드 리뷰

  • 필수과제 5 제출 후 서로의 코드를 보며 의견 공유

2.강의 내용 및 심화내용 토론

  • [Ai Math 7강]통계학 맛보기
  • [Ai Math 8강]베이즈 통계학 맛보기

4.학습회고

기존에 기본적인 syntax 익힘을 그때그때 구글링으로만 해결하고 등한시하였는데 앞으로 자주 쓰이는 내장 함수 및 모듈 사용을 생활화해야할 것 같습니다. 임성빈 교수님의 마스터 클래스를 통해 수학을 어디까지, 어떻게 학습하는 것이 좋은지 알 수 있는 시간을 가졌습니다. 이후 8시에 담당 멘토님과의 멘토링을 통해 AI 직군에 대한 전반적인 얘기를 들을 수 있었습니다.

profile
인지간지

0개의 댓글