[ML] 5주차-1 : Cost Function and Backpropagation

k_dah·2021년 11월 21일
0

MachineLearning_AndrewNg

목록 보기
9/32
post-custom-banner

Machine Learning by professor Andrew Ng in Coursera

1) Cost Function

Neural Network (Classification)


우선 앞으로 사용할 새로운 변수들

  • L = total no. of layers in network
  • sls_l = no. of units (not counting bias unit) in layer ll

Binary Classification에서 y는 0 또는 1 만을 갖는다.
즉, output unit은 1개 &

hθ(x)Rh_\theta(x) \in R
SL=1,K=1S_L = 1 , K = 1

Multiclass Classification (K classes) 라면
output units은 K개 &

yRK E.g[100...0][010...0]y \in R^K \text{ } E.g \begin{bmatrix}1\\0\\0\\...\\0 \end{bmatrix} \begin{bmatrix}0\\1\\0\\...\\0 \end{bmatrix}
hθ(x)RK,SL=K(K>=3)h_\theta(x) \in R^K, S_L = K (K>=3)

Cost Function


neural network는 많은 ouput nodes를 가질 수 있다.
이때 hΘ(x)kh_\Theta(x)_kkk번째 outputoutputhypothesishypothesis라고 한다.
Our cost function for neural networks is going to be a generalization of the one we used for logistic regression. Recall that the cost function for regularized logistic regression was:

Logistic Regression:

J(θ)=1mi=1m[y(i)loghθ(x(i))+(1y(i))log(1hθ(x(i)))]+λ2mj=1nθj2J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} \left[ y^{(i)} \log h_\theta ( x^{(i)} ) + \left( 1-y^{(i)} \right) \log \left( 1-h_\theta ( x^{(i)}) \right)\right] + \frac{\lambda}{2m} \sum_{j=1}^{n} \theta_{j}^{2}

Neural Network:

hθ(x)Rk , ((hθ(x))k=kthoutput)h_\theta(x) \in R^k \text{ , }((h_\theta(x))_k = k^{th} output)
J(Θ)=1m[i=1mk=1Kyk(i)log(hθ(x(i)))k+(1yk(i))log(1hΘ(x(i)))k]+λ2ml=1L1i=1slj=1sl+1(Θji(l))2J(\Theta) = -\frac{1}{m} \left[ \sum_{i=1}^{m} { \sum_{k=1}^{K} } y_{{k}}^{(i)} \log { {\left( h_\theta ( x^{(i)} ) \right)}_{{k}} } + \left( 1-y_{{k}}^{(i)} \right) \log \left( 1-h_\Theta ( x^{(i)}) \right)_{k} \right] + \frac{\lambda}{2m} {\sum_{l=1}^{L-1} \sum_{i=1}^{s_l}} \sum_{j=1}^{s_{l+1}} {(\Theta_{ji}^{(l)})^2}

'이때 regularization term들은 전부 0이 아니라 1부터 \sum 가 시작된다.
bias term θ0\theta_0는 정규화하지 않기 때문'

  • multiple output nodes를 고려하기 위해 몇 개의 nested summation이 추가된다.
    • 대괄호([ ]) 안에 output node 갯수만큼 반복되는 nested summation이 추가된다.
  • 정규화 부분에서 multiple theta 행렬을 고려해야 한다.
    • theta 행렬의 열은 bias unit을 포함한 현재 layer의 node 개수와 같다.
    • theta 행렬의 행은 bias unit을 제외한 다음 layer의 node 개수와 같다.
    • logistic regression과 마찬가지로 모든 항을 제곱한다.

2) Backpropagation Algorithm

"Backpropagation"은 neural-network에서 비용 함수의 최솟값을 찾는 방법으로 logistic/linear regression에서의 gradient descent와 같은 역할을 한다.

Gradient Computation


비용 함수를 최소화하는 최적의 parameter θ\theta 찾아야 한다.
즉,

minΘJ(Θ)\min_{\Theta} J(\Theta)

J(θ)J(\theta)는 이미 위에서 알았고,
Θi,j(l)J(Θ)\frac{\partial}{\partial \Theta_{i,j}^{(l)}} J(\Theta)를 어떻게 계산할지 알아본다.

Given one training example (x, y):

Gradient Computation : Backpropagation algorithm


  • δj(l)\delta_j^{(l)} = errorerror of node jj in layer ll

Backpropagation algorithm


{((x(1),y(1))...(xm,y(m))}\{((x^{(1)}, y^{(1)}) ... (x^{m}, y^{(m)})\} 의 훈련세트가 주어진다.

  • δij(l)=0 (for all l, i, j)\delta_{ij}^{(l)} = 0 \text{ (for all l, i, j)} 라 설정한다.

For i=1 to m

  1. Set a(1):=x(i)a^{(1)}:= x^{(i)}

  2. Perform forward propagation to compute a(l) for l = 1, 2, ... La^{(l)} \text{ for l = 1, 2, ... L}

  3. y(i)y^{(i)}를 이용해서 δ(L)=a(L)y(i)\delta^{(L)} = a^{(L)} - y^{(i)}을 계산한다.

  4. δ(l)=((Θ(l))Tδ(l+1)).a(l).(1a(l))\delta^{(l)} = ((\Theta^{(l)})^T\delta^{(l+1)}).*a^{(l)}.*(1-a^{(l)}) 을 이용해서 δ(L1),δ(L2)...δ(2)\delta^{(L-1)}, \delta^{(L-2)}... \delta^{(2)}를 계산한다.

이때 .*은 element-wise multiply 를 의미한다.
g(z(l))=a(l).(1a(l))g'(z^{(l)}) = a^{(l)} .* (1-a^{(l)})

  1. Δi,j(l):=Δi,j(l)+aj(l)δi(l+1)\Delta_{i, j}^{(l)} := \Delta_{i, j}^{(l)} + a_j^{(l)}\delta_i^{(l+1)}, 이 식을 벡터화하면 Δ(l):=Δ(l)+δ(l+1)(a(l))T\Delta^{(l)} := \Delta^{(l)} + \delta^{(l+1)}(a^{(l)})^T

for 루프를 빠져나온 뒤
새로운 Δ\Delta 행렬을 아래와 같이 업데이트한다.

  • Di,j(l):=1m(Δi,j(l)+λΘi,j(l)), if j0D_{i, j}^{(l)} := \frac{1}{m}(\Delta_{i, j}^{(l)}+\lambda\Theta_{i, j}^{(l)}), \text{ if j}\neq0

  • Di,j(l):=1mΔi,j(l), if j0D_{i, j}^{(l)} := \frac{1}{m}\Delta_{i, j}^{(l)}, \text{ if j}\equiv0

이렇게 Dij(l)D_{ij}^{(l)}을 계산하면

그게 곧 J(Θ)Θi,j(l)=Di,j(l)\dfrac{\partial J(\Theta)}{\partial \Theta_{i,j}^{(l)}} = D_{i,j}^{(l)}

The capital-delta matrix D is used as an "accumulator" to add up our values as we go along and eventually compute our partial derivative.
DD 행렬은 결국에는 편미분을 구하게 해주는 "accumulator"로 동작한다.

3) Backpropagation Intuition

Forward Propagation


What is backpropagation doing?


neural network의 cost function은 아래와 같다.

J(Θ)=1m[t=1mk=1Kyk(t)log(hθ(x(t)))k+(1yk(t))log(1hΘ(x(t)))k]+λ2ml=1L1i=1slj=1sl+1(Θji(l))2J(\Theta) = -\frac{1}{m} \left[ \sum_{t=1}^{m} { \sum_{k=1}^{K} } y_{{k}}^{(t)} \log { {\left( h_\theta ( x^{(t)} ) \right)}_{{k}} } + \left( 1-y_{{k}}^{(t)} \right) \log \left( 1-h_\Theta ( x^{(t)}) \right)_{k} \right] + \frac{\lambda}{2m} {\sum_{l=1}^{L-1} \sum_{i=1}^{s_l}} \sum_{j=1}^{s_{l+1}} {(\Theta_{ji}^{(l)})^2}

If we consider simple non-multiclass classification (k = 1) and disregard regularization, the cost is computed with:

cost(t)=y(t)log(hθ(x(t)))+(1y(t))log(1hθ(x(t)))cost(t) = y^{(t)}\log(h_\theta(x^{(t)}))+(1-y^{(t)})\log(1-h_\theta(x^{(t)}))

Intuitively, δj(l)\delta_j^{(l)} is the "error" for aj(l)a_j^{(l)} (unit j in layer l). More formally, the delta values are actually the derivative of the cost function:

δj(l)=zj(l)cost(t)\delta_j^{(l)} = \dfrac{\partial}{\partial z_{j}^{(l)}}cost(t)

Recall that our derivative is the slope of a line tangent to the cost function, so the steeper the slope the more incorrect we are. Let us consider the following neural network below and see how we could calculate some δj(l)\delta_j^{(l)}:

_😡

profile
개똥이
post-custom-banner

0개의 댓글