신경망의 기본 구조는 input, hidden , output layer 이라고 할 수 있다.
activation fuinction까지 적용한 값을 출력한다는 점도 기억해야한다.
이러한 신경망의 동작원리는
신경망의 학습(training)은 적절한 가중치를 찾아가는 과정이다.
그런데 신경망은 스스로 적절한 가중치를 찾을 수 있는데 그 원리가 경사하강법(gradient descent, GD)와 역전파(Backpropagation, BP)이다. 역전파의 알고리즘을 통해 경사하강법에 필요한 기울기(gradient)를 구하게 된다.