Function Signals == Feed ForwardError Signals == Backward Propagation
Forward Propagation

Backward Propagation



Sum of Squared Errors 
optimal weight
Iterative optimization Credit assignment problem :
가 계산되기 위해서는 개의 hidden node로부터 영향을 받았기 때문에
에 대한 error 지분을 ~에게 할당하는 문제
➡️ Hidden-to-output Layer에 대해서
와 라는 것이 명확하게 정해지니까
Credit assignment problem이 수월하다.
Sensitivity : ➡️ Input-to-hidden Layer에 대해서
라는 signal이 명확하게 알지 못하기 때문에
Credit assignment problem이 어렵다.
Hidden-to-output Layer에 대해서 Credit assignment problem이 수월했지만,Input-to-hidden Layer에 대해서는 그렇지 않았다.back propagation을 사용한다.
Hidden-to-output layer의 상황에서 계산의 편의를 위해 () node만 고려한다.
Delta Error : Determine scale (크기 결정)
Sensitivity : Determine direction (방향 결정)

Weight update rule : ⬅️ +


Hidden-to-output layer의 상황에서 계산의 편의를 위해 () node만 고려한다.
Delta Error : Determine scale (크기 결정)

Sensitivity : Determine direction (방향 결정)

Weight update rule : ⬅️ + 


Universal approximators

ANN을 Universal Function Approximator라고 한다.일반적으로 More Layer, More Intelligent
(하지만 항상 그런 것은 아니다)
(data가 충분히 뒷받침되어야 하고, data의 quality가 좋아야 하고, 좋은 algorithm이 있어야 하고, ...)
Human brain : at least 5 ~ 10 layers for visual processing

