참고도서
훈련을 마치면, "추론"을 수행
- 새로운 특징에 대응되는 목표치의 예측
기계학습의 궁극적인 목표
- 훈련집합에 없는 새로운 데이터에 대한 오류를 최소화(새로운 데이터=테스트 집합)
- 테스트 집합에 대한 높은 성능을 일반화 능력이라 부름
기계학습의 필수 요소
- 학습할 수 있는 데이터가 있어야 함
- 데이터 규칙이 존재해야 함
- (규칙이) 수학적으로 설명이 불가능해야 함
모든 데이터는 정량적으로 표현되며, 특징 공간 상에 존재
특징 공간 변환
선형 분리 불가능한 원래 특징 공간을 새로운 특징 공간으로 변환 시 선형 모델로 100% 정확도를 얻을 수 있다.
표현 학습
- 좋은 특징 공간을 자동으로 찾는 작업
심층 학습
- 표현 학습의 하나로 다수의 은닉층을 가진 신경망을 이용하여 최적의 계층적인 특징을 학습
- 아래쪽 은닉층은 저급 특징(선, 구석점 등), 위쪽 은닉층은 추상화된 특징(얼굴, 바퀴 등) 추출
기계학습은 작은 개선을 반복하여 최적의 해를 찾아가는 수치적 방법
기계학습 요소
- input
- output
- target distribution
- data
- hypothesis
지도학습
1차~12차 다항식 모델의 비교 관찰
- 1~2차는 훈련집합과 테스트집합 모두 낮은 성능 → 과소적합
- 12차는 훈련집합에 높은 성능을 보이나 테스트집합에서는 낮은 성능 → 낮은 일반화 능력, 과잉적합
모델의 일반화 능력와 용량의 관계
일반적으로 용량이 작은 모델은 편향이 크고 분산이 작으며, 복잡한 모델은 편항이 작고 분산이 크다. → 편향과 분산은 상충 관계
낮은 편향과 낮은 분산을 가진 예측 모델을 만드는 것이 목표!
하지만 모델의 편향과 분산은 상충 관계이므로 편향을 최소로 유지하며 분산도 최대로 낮추는 전략이 필요하다.
가중치 감쇠는 개선된 목적함수를 이용하여 가중치를 작게 조정하는 규제 기법
오프라인 학습/온라인 학습
- 온라인 학습은 IoT 등에서 추가로 발생하는 데이터 샘플을 가지고 점증적 학습 수행
결정론적 학습/확률적 학습
- 결정론적 학습에서는 같은 데이터를 가지고 다시 학습하면 같은 예측 모델이 만들어진다.
- 확률적 학습은 학습 과정에서 확률 분포를 사용하므로 같은 데이터로 다시 학습하면 다른 예측 모델이 만들어진다.
분별 모델/생성 모델
- 분별 모델은 부류 예측에만 관심 즉, 의 추정에 관심
- 생성 모델은 또는 를 추정