학습에서 발생하는 에러가 아닌 평가를 위한 테스트상에서 발생하는 에러(generalization error)를 줄이기 위하여 학습 알고리즘을 수정하는 기법이다.
Weight Decay는 Regularization의 가장 대표적인 기법이다.