용어 모음
Generalization
Underfitting, Overfitting
Cross-validation(K-fold)
Bias/Variance
Bootstrapping
Bagging
Boosting
Batch-size
Gradient Descent Method
Early Stopping
Parameter norm penalty(weight decay)
Data augmentation
Noise robustness
학습단계에서 입력 데이터에 노이즈를 주거나 weight에 노이즈를 주면 실험적으로 학습이 잘됨
Label smoothing
Dropout
Batch normalization
DL-Basic 완료
필수과제 완료
Viz 강의 마저 듣기