✨ 다음주부터 딥러닝을 배우게 되는데 그 전에 딥러닝 맛보기!
손실함수(Loss function)
: 한 개의 데이터 포인트에서 나온 오차를 최소화하기 위해 정의되는 함수
비용함수(Cost function)
: 모든 오차를 일반적으로 최소화하기 위해 정의되는 함수
목적함수(Objective function)
: 어떤 값을 최대화 혹은 최소화 시키기 위해 정의되는 함수
✅ 손실함수, 비용함수, 목적함수는 분명 다르게 정의되지만 일반적으로 혼용해서 사용됨.
: 오차(예측값과 실제값의 차이)를 도출하기 위한 식
💡 목표: 반복을 통해 오차를 최소한으로 줄이는 매개변수를 찾는 것
1) 신경망 구조의 딥러닝 모델(입력층, 은닉층, 출력층)을 정의
2) 임의의 데이터에서 전처리를 수행한 입력값 정의
3) 입력값을 딥러닝 모델에 넣고 임의의 매개변수를 지정하여 각 층 별로 연결
4) 딥러닝 모델에서 임의로 지정된 매개변수 값에 따라 순전파를 이용하여 예측값 생성
5) 생성된 예측값을 실제값과 비교 (=손실함수)
5) 예측값을 실제값과 손실함수를 통해 오차 생성
6) 오차를 옵티마이저를 통해 역전파를 진행하여 매개변수를 업데이트
: 회귀는 성능 x에 따른 가격 y를 예측해 선 ŷ를 구하는 문제
평균절대오차(MAE) : 미분이 불가능하다는 단점이 있음
평균제곱오차(MSE) : MAE의 단점을 보완
예시) 짱구의 이름을 분류하는 모델
: 예측값과 원핫벡터로 이루어진 실제값의 차이를 교차엔트로피 손실함수 (Cross entropy)를 통해 오차 도출
분류 문제에서 데이터의 라벨(실제값)은 one-hot-encoding을 통해 표현된다.
L: 예측값, P: 실제값
👀
cross entropy는 실제 entropy 보다 항상 크다. entropy는 고정이기 때문에, cross-entropy를 최소화 시키는 것이 예측 모형을 최적화 시키는 것이라고 할 수 있다. 이것이 불확실성을 제어하고자하는 예측모형의 실질적인 목적이라고 볼 수 있다.