입력층 - 은닉층 - 출력층
Non-Linear Transformation
수업시간에도 배웠는데, 계속해서 Linear Regression만 하게 되면 복잡한 관계를 학습하지 못하고 계속 선형적인 관계만을 학습한다고 한다.
Feature Enhancement
feature들을 정제할 수 있따.
중요한 feature들은 강조하고, 덜 중요한 feature들은 억누른다.
잘 생각해보면, activation을 통과하기 전에는 뭐가 중요한지 잘 모른다. 하지만 activation layer를 통과하는 순간 값이 0쪽으로 가거나 1쪽으로 가는 것을 알 수 있다(softmax나 sigmoid의 경우). 그러니 , 좋은 feature를 선별하는 과정이라고도 볼 수 있다!!!

1 ) W1,B1 : 첫번째 선형변환의 가중치와 bias.
2 ) W2,B2 : 두번째 선형변환의 가중치와 bias


Universal Approxmation Theorem
한 개의 히든 레이어를 가진 Neural Network를 이용해서 어떤 함수든 근사시킬 수 있다는 이론...
결국에는, Threshold가 있는 함수를 만들어낸다는 것...!


3. 두번째 Layer 통과 