딥러닝 Deep learning - Differentiation Basics

LSH·2023년 9월 14일
0

교육 정보

  • 교육 명: 경기미래기술학교 AI 교육
  • 교육 기간: 2023.05.08 ~ 2023.10.31
  • 강사: 양정은 강사님
  • 강의 계획:
    1. 딥러닝 소개 및 프레임워크 설치
    2. Artificial Neurons Multilayer Perceptrons
    3. 미분 기초 Backpropagation
    4. MLP 구현하기
    5. MLP로 MNIST 학습시키기(Mini-project)
    6. Sobel Filtering
    7. Convolutional Layers
    8. 이미지 분류를 위한 CNNs
    9. CNN으로 MNIST 학습시키기
    10. VGGNet, ResNet, GoogLeNet
    11. Image Classification 미니 프로젝트
    12. Object Detection 소개
    13. Region Proposal, Selective Search
    14. RCNN
    15. Single Shot Detection

Differentiation Basics

평균 변화율 (Average Rate of Change)

ΔyΔx=y1y0x1x0=f(x0+Δx)f(x0)(x0+Δx)x0=f(x0+Δx)+x0Δx\cfrac{\Delta y}{\Delta x} = \cfrac{y_1 - y_0}{x_1 - x_0} = \cfrac{f(x_0 + \Delta x) - f(x_0)}{(x_0 + \Delta x) - x_0}= \cfrac{f(x_0 + \Delta x)+x_0}{\Delta x}
  • secant line: 두점을 지나는 직선 = 평균 변화율
  • tangent line: 한 점에 접하는 직선
    Δx\Delta x 가 작아질수록 secant line의 기울기가 tangent line의 기울기와 비슷해지므로 Δx\Delta x 가 0으로 수렴하면 평균 변화율이 곧 tangent x, 미분계수가 됨

→ 이 미분값을 사용하여 타겟 r값을 찾는 방법을 Graduient learning이라 함

Gradient learning

  • 타겟 = x
  • 초기(현재)값 = x' 일 때
  1. x ^= x' 이면 x'이 x에 가까워 지도록 -dy/dx만큼 변화시킴
profile
:D

0개의 댓글