[데브코스 자율주행 TIL] DAY 63 (12/15)

happy_quokka·2023년 12월 18일
0
post-thumbnail

2023.12.15 DAY63

신경망의 기초와 관련된 수학, 확률에 관한 강의를 들었다. 대학교 때 다 배웠던 내용들인데 역전파, 확률과 관련된 것들은 배울 때마다 새로 배우는 느낌이다ㅠㅠ 정확히 100% 습득하지 못해서 그런 것 같다. 이번에 제대로 이해하고 넘어가려고 했다!! 그리고 지금까지는 이론만 배운 느낌이라면 강의를 통해서 그 이론이 기하학적으로는 어떤 의미인지 배울 수 있어서 좋았다.


📝 배운 내용

다층 퍼셉트론

  • 활성 함수
    • 비선형 함수
    • 활성 함수에 따라 다층 퍼셉트론의 공간 분할 능력 변화
  • 은닉층
    • 특징 벡터를 분류에 더 유리한 새로운 특징 공간으로 변환
    • 특징 학습

오류 역전파

  • 미분의 연쇄법칙을 통해 계산된다
  • 목적함수의 최저점을 찾아주는 경사하강법
  • 출력의 오류를 역방향으로 전파하며 경사도를 계산하는 알고리즘
  • 벡터의 미분은 야코비얀 행렬로 표현되고 벡터와 스칼라의 미분은 gradient로 표현된다

베이즈 정리

  • 사후 확률을 직접 추정하는 것은 불가능하기 때문에 베이즈 정리를 통해 추정한다
  • 즉, 사전 확률과 likelihood를 통해 (데이터를 통해) 최대가 되는 확률을 찾는 것
  • 이를 통해 주어진 분류 문제를 풀 수 있다

maximum likelihood

  • 매개변수를 모르는 상황에서 매개변수를 추정하는 문제
  • 주어진 데이터를 관측하고 확률 변수의 매개변수를 구하는 방법

정보이론

  • 잘 일어나지 않는 사건의 정보량이 더 많다
  • 엔트로피
    • 해당 확률 변수가 얼만큼의 정보를 가질 수 있는가를 표현
  • 교차 엔트로피
    • 서로 얼만큼의 정보를 공유하고 있는지, 두 확률분포를 비교할 떄 사용

0개의 댓글