딥러닝 기초 | 인공신경망 & 경사하강법

타샤's 월드·2025년 7월 8일
0

DNN 깊은인공신경망

신경의 생물학적 작동원리를 모방해
노드: 신호를 받는 부분 (Nin)
엣지: thresold에 따라 전달할지 말지를 정하고
커넥션: 전달한다

활성함수 Activation function

(신경이라고 치면...)자극임계값을 계산하는 함수

(대충 이런 어디서 많이 본 것들..)

웨이트 : 각 파라미터의 가중치
바이어스 : y 절편ㅎㅎ...

  • 여기서 같은 레이어에 있는 2개 노드의 웨이트의 값이 동일하다면? => 신경망의 다양성x
    => 각 노드가 가진 웨이트 세트가 각 노드의 역할을 결정한다

로스함수:

  • 완전 인공신경망의 핵심!
  • 해당 파라미터가 얼마나 좋은지 안 좋은지 판단
  • 이걸로 판단하고 그 내역으로 다음 스탭 결정됨
  • 원래는 오차값들의 평균...이어야 하는데 -> 오차값이 양수도 있고 음수도 있다는 문제 생김-> 따라서 제곱하거나 절대값 하거나 -> 제곱을 취하면 파라미터 변화에 더 민감
  • MSE Loss (Mean Squared Error Loss) : 제곱 방식
  • MAE Loss (Mean Absolute Error Loss) : 절대값 방식

딥러닝 == 최적 웨이트 찾는 과정

경사하강법(Gradient Descent)

θnew=θηJ(θ)\theta_{\text{new}} = \theta - \eta \cdot \nabla J(\theta)
=[2.01.0]0.1[0.50.3]= \begin{bmatrix} 2.0 \\ -1.0 \end{bmatrix} - 0.1 \cdot \begin{bmatrix} 0.5 \\ -0.3 \end{bmatrix}
=[2.00.051.0+0.03]= \begin{bmatrix} 2.0 - 0.05 \\ -1.0 + 0.03 \end{bmatrix}
=[1.950.97]= \begin{bmatrix} 1.95 \\ -0.97 \end{bmatrix}
  • 다음 스텝 = 이전 스텝 - (학습률 * Loss 함수의 기울기)
  • 로스함수의 기울기는 로스가 많아지는 방향 그러니까 그 반대로 빼는걸 해야함
  • 당연히 로컬 미니멈에 빠지는 이슈 생김

profile
그때 그때 꽂힌것 하는 개발블로그

0개의 댓글