머신러닝 기본개념

김상윤·2022년 5월 9일
0

AI이모저모

목록 보기
7/13

Hyper-Parameter / Parameter

  • Hyper-Parameter
    : 학습을 위한 세팅 값 - 직접 설정할 수 있는 변수
    : learning-rate(SGD), layer-num,drop-out-rate(NN) 등
  • Parameter
    : 학습을 통해 최적화, 업데이트 하는 변수
    : 학습의 목적이 최적의 이 parameters를 찾는 것이다.

Loss/Cost/Objective Function

  • Loss Function
    : 한 데이터 포인트에 대한 오차(실체값에 대해 예측값이 벗어난 정도)
    : MAE, MSE, RMSE
  • Cost Function
    : 전체 데이터에 대한 오차
    : loss함수의 합(sigma), 적분(integral), 평균을 통해 얻는다.
  • Objective Function
    : cost function, MLE 등 최소화/최대화 시킴으로써 모델을 최적화(optimization)하는 함수
    : 최적화는 objective function을 최소화(최대화) 하는 값으로 parameter를 업데이트 함으로써 이루어진다.

one-hot Encoding

  • 각 클래스는 순서의 의미를 갖고 있지 않으므로 각 클래스 간의 오차는 균등 (유클리드 거리가 동일).
    : 무작위성
  • 무작위성은 때로는 단어의 유사성을 구할 수 없다는 단점으로 언급되기도 함.

logistic regression

  • class가 2개인 classification분류 문제를 해결하기 위한 모델
  • 가설 : H(x) = sigmoid(wX+b)
  • ex) pytorch에서 logistic regression 모델 구현
model = nn.Sequential(
   nn.Linear(2, 1), # input_dim = 2, output_dim = 1
   nn.Sigmoid() # 출력은 시그모이드 함수를 거친다
)

softmax regression

  • Multi-class Classification를 해결하기 위한 모델
  • f개의 독립변수(feature) input으로 c개의 class 중 하나를 예측할 때
    : [ c x f ] 형태의 W matrix(가중치 행렬)를 필요로 합니다.
  • 예측값은 합이 1인 c개의 확률값으로 도출됩니다.
  • 오차로부터 optimization을 위한 cost function은 "크로스 엔트로피 함수"를 이용합니다.
    (n : 전체 데이터 개수, k : class 개수)

머신러닝 모델의 기본 구조

  1. X, y data-set 세팅
  2. parameter 초기값 부여(rand)
    ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
  3. hypothesis(가설->예측값) 연산식
    : by. 모델 (linear regression, softmax regression 등)
  4. hypothesis 기반으로 cost function
    : by. (MSE, cross entropy 등)
  5. cost function 기반으로 optimization
    : by. optimizer (SGD 등)
    : parameter update
    : back propagation
    ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
    3., 4., 5. 반복( x epoch )

참고

https://wikidocs.net/60572

0개의 댓글