퍼셉트론을 설명하는 포스팅입니다.
로지스틱 회귀에 관한 포스팅입니다.
활성화 함수가 사용되는 이유와 주요 활성화 함수들의 종류를 소개하는 포스팅입니다. 그리고 Sigmoid와 tanh 그리고 Softmax 함수의 특징들에 대해서 소개했습니다.
이 포스팅에선 Gradient Vanishing 문제를 해결하기 위해 기존에 주로 사용되었던 ReLU 등의 활성화 함수들을 소개했습니다.
이번 포스팅에선 손실 함수의 정의 그리고 회귀에서 주로 사용되는 MSE, MAE와 분류에서 주로 사용되는 Cross Entropy Loss Function에 대해서 소개했습니다.
이번 포스팅에선 우도 함수에 대해서 정리했습니다.
이번 포스팅에선 주요 옵티마이저에 대해서 알아보았다. Gradient Descent부터 Adam까지 각 옵티마이저들의 특징들 위주로 정리했습니다.
머신러닝에서 주로 일어나는 과적합 문제에 대한 해결 방법에 대해서 포스팅 했습니다.
Gradient Vanishing / Exploding 현상을 제어할 수 있는 몇가지 방법에 대해 포스팅 했습니다.
QCNet 논문 리뷰