[내가 헷갈려서 하는 정리: 경사하강법 & Decision Tree]

HI,HYEN·2022년 11월 22일
0

KMOOC 실습으로 배우는 머신러닝 강의 정리 내용


4 -2,3

경사하강법

  • gradient descent (steepest descent 방법)
  1. 함수 값이 낮아지는 방향으로 독립 변수 값을 변형시켜가면서 최종적으로는 최소 함수 값을 갖도록 하는 독립 변수 값을 찾는 방법
  2. gradient descent는 함수의 기울기(즉, gradient)를 이용해
    x의 값을 어디로 옮겼을 때 함수가 최소값을 찾는지 알아보는 방법
  • step size
    : 이동 거리의 조정 값
    장점 step size가 큰 경우 한 번 이동하는 거리가 커지므로 빠르게 수렴할 수 있음. (step size를 너무 크게 설정해버리면 최소값을 계산하도록 수렴하지 못하고 함수 값이 계속 커지는 방향으로 최적화가 진행될 수 있음.)
    단점 step size가 너무 작은 경우 발산하지는 않을 수 있지만 최적의 x를 구하는데 소요되는 시간이 오래 걸림.


6 -1,2

Decision Tree

: 분류와 회귀 작업 및 다중출력 작업도 가능한 다재다능한 머신러닝 방법론

  • IF-THEN 룰에 기반해 해석이 용이함
  • 일반적으로 예측 성능이 우수한 랜덤 포레스트 방법
  • CART 훈련 알고리즘을 이용해 모델을 학습
  • 전체적인 모양이 나무를 뒤짚어 높은 것과 같아서 이름이 Decision Tree

결정 트리에서 질문이나 정답을 담은 네모 상자를 노드(Node), 맨 처음 분류 기준
(즉, 첫 질문)
을 Root Node, 맨 마지막 노드를 Terminal Node 혹은 Leaf Node

  • 불순도 (Impurity)
    : 해당 범주 안에 서로 다른 데이터가 얼마나 섞여 있는지
    아래 그림에서 위쪽 범주는 불순도가 낮고, 아래쪽 범주는 불순도가 높다. 바꾸어 말하면 위쪽 범주는 순도(Purity)가 높고, 아래쪽 범주는 순도가 낮습니다. 위쪽 범주는 다 빨간점인데 하나만 파란점이므로 불순도가 낮다고 할 수 있습니다. 반면 아래쪽 범주는 5개는 파란점, 3개는 빨간점으로 서로 다른 데이터가 많이 섞여 있어 불순도가 높습니다.

출처: https://ratsgo.github.io/machine%20learning/2017/03/26/tree/

  • CART (Classification And Regression Tree)
    :불순도를 최소화하도록 최종 노드를 계속 이진 분할하는 방법론
profile
Today I Learn

0개의 댓글