Function Signals == Feed Forward
Error Signals == Backward Propagation
Forward Propagation
Backward Propagation
Sum of Squared Errors
optimal weight
Iterative optimization
Credit assignment problem
:가 계산되기 위해서는 개의 hidden node로부터 영향을 받았기 때문에
에 대한 error 지분을 ~에게 할당하는 문제
➡️ Hidden-to-output
Layer에 대해서
와 라는 것이 명확하게 정해지니까
Credit assignment problem이 수월하다.
Sensitivity
: ➡️ Input-to-hidden
Layer에 대해서
라는 signal이 명확하게 알지 못하기 때문에
Credit assignment problem이 어렵다.
Hidden-to-output
Layer에 대해서 Credit assignment problem이 수월했지만,Input-to-hidden
Layer에 대해서는 그렇지 않았다.back propagation
을 사용한다.Hidden-to-output
layer의 상황에서 계산의 편의를 위해 () node만 고려한다.
Delta Error
: Determine scale (크기 결정)Sensitivity
: Determine direction (방향 결정)Weight update rule
: ⬅️ +
Hidden-to-output
layer의 상황에서 계산의 편의를 위해 () node만 고려한다.Delta Error
: Determine scale (크기 결정)Sensitivity
: Determine direction (방향 결정)Weight update rule
: ⬅️ + Universal approximators
ANN
을 Universal Function Approximator
라고 한다.일반적으로 More Layer, More Intelligent
(하지만 항상 그런 것은 아니다)
(data가 충분히 뒷받침되어야 하고, data의 quality가 좋아야 하고, 좋은 algorithm이 있어야 하고, ...)
Human brain
: at least 5 ~ 10 layers for visual processing