Visual Viewpoint
One template per class
Algebraic Viewpoint
Geometric Viewpoint
Hyperplanes cutting up space
Score Function
Loss Function 손실함수
머신러닝의 과정에서의 목적은 최적화를 통해 손실 함수에서 비용(손실)이 최소가 되는 부분을 찾는것으로
대입한 결과와 실제 정답(label) 간의 간격(차이)를 최대한 줄이는 방향으로 값을 대입하게 된다
즉, 손실 함수의 값인 '오차'를 줄여 내기 위한 목적으로 사용한다
Loss function
은 현재 분류기의 성능 지표를 나타낸다
Low loss = 좋은 분류기
High loss = 나쁜 분류기
objective function
, cost function
이라고도 함
모델을 평가하는 정량적 방법
Loss function
의 최대 , 최소값은 ?( Hinge Loss )
Use a loss function to quantify how good a value of W is
Find a W that minimizes the loss function (optimization)
Regularization : Beyond Training Error
Cross-Entropy Loss 교차 엔트로피
P49
Q1: What happens to the loss if the scores for the car image change a bit?
P50
Q2: What are the min and max possible loss?
P51
Q3: If all the scores were random, what loss would we expect?
P52
Q4: What would happen if the sum were over all classes? (including i = y i )
P53
Q5: What if the loss used a mean instead of a sum?
P54
Q6: What if we used this loss instead?
Loss Value의 최대값과 최대값은 어떻게 되는가 ?
Scalars 스칼라
Vectors 벡터
스칼라와 달리 방향을 포함함
숫자들의 배열
순서대로 정렬됨
Basis 기저
어떤 벡터 공간의 기저는 그 벡터 공간을 선형 생성하는 선형독립인 벡터들이다
벡터 공간의 임의의 벡터에게 선형결합으로서 유일한 표현을 부여하는 벡터
행렬 (Matrices)
텐서 (Tensor)
차원 (Dimension)
유클리드 벡터 Euclidean vector
유클리드 공간
에서 방향과 크기를 모두 포함하는 기하학적 대상
유클리드 공간