-> overfitting 발생: train mIOU는 1에 가까운데, val mIOU는 안 높아지거나 비슷비슷
-> epoch이 부족해서 그런걸까? 하고 20 -> 40으로 변경했으나 overfitting만 심해짐
-> 모델이 너무 가벼워서 그런걸까?
-> DeeplabV3+, se_renext_101로 변경
(run 1번만으로 모든걸 판단하려 하지 말고 몇 번 해보는게 좋을듯 하다라는 멘토님 조언)
LB score가 0.609 - 0.630으로 꽤 많이 차이남
-> 왜???
이건 epoch이 부족해서인가??????
처음에는 극명한 차이를 보기 위해 p=1.0
으로 실험했으나, augmentation을 하는 이유는 dataset 분포에 약간의 변화를 줘서 test dataset에 근접한 분포를 찾기 위함이기 때문에 p=0.1 ~ 0.05
가 보통이라는 조원의 말을 들어 p=0.1
로 실험해보는 중
General하게 좋은 augment가 있을까? 아님 각 model별로 다를까?