특징 공간(Feature Space)이란, 데이터의 각 샘플이 가진 여러 특징(feature)들을 좌표로 표현하는 다차원 공간이다. 쉽게 말해, 특징들이 수치회된 벡터 공간이라고 할 수 있다. 머신러닝에서는 데이터가 특징 공간 내의 점(벡터)으로 표현되며, 모델이 패

모델 선택과 과대적합 선형 회귀 (Linear Regression) 선형 회귀란, 두 번수 x, y에 대한 n개의 측정 값(ex. $(x1, x1), (x2, y2), … (xn, yn)$)이 있을 때, 주어진 가설(Hypothesis)에 대한 비용(Co

벡터 : 방향과 크기를 갖는 대상행렬 : 여러 벡터를 열로 담은 구조행렬은 교환법칙이 성립하지 않는다. ($AB ≠ BA$)행렬은 분배법칙과 결합법칙이 성립한다.$A(B + C) = AB + AC$ (분배법칙), $A(BC) = (AB)C$ (결합법칙)행렬의 곱셈을 위