
싱글 모델보다 더 나은 성능을 위해 서로 다른 여러 학습 모델을 사용하는 것

The reason that model averaging works is that different models will usually not make all the same errors on the test set.









Test Time Augmentation을 3회 정도 하는 것으로 구현해서 결과를 확인해봅시다.
Tensorboard, wandb를 이용해서 학습 과정을 모니터링할 수 있도록 구성해보세요.
k-fold cross validation using dataloaders in pytorch
https://stackoverflow.com/questions/60883696/k-fold-cross-validation-using-dataloaders-in-pytorch
sklearn의 k-fold는 index로 데이터를 split 하므로, pytorch의 torch.utils.data.dataset.Subset()를 이용하여 train, valid set으로 분리해 DataLoader를 작성합니다.
Pytorch My_TTA Function (easy to understand)
https://www.kaggle.com/luyujia/pytorch-my-tta-function-easy-to-understand
직관적으로 이해하기 쉽게 Pytorch로 작성한 캐글 커널입니다. 해당 코드에서 transform 부분에 Augmentation 기법을 추가해주어 작성할 수 있습니다.
Model Validation, Ensemble(OOF, Stacking)
https://www.kaggle.com/kcs93023/kakr-4th-seminar-model-validation-ensemble
캐글 코리아 4차 경진대회에서 공개된 Model, Validation, Ensemble 커널 공유드립니다.