오버피팅은 학습데이터가 과도하게 학습되어서 실제데이터에서는 성능이 떨어지는 현상을 의미합니다. 이런 오버피팅 문제를 해소하기 위한 방법으로는 우선 가장 학습이 잘 되었을때를 찾기 위한 Early stopping 방법이 있으며, 그 외에도 데이터에 노이즈를 추가하는 방식으로 일반화 정도를 높이는 방법, Dropout을 통해 모델을 단순화하는 방법 등이 있습니다.
-- 반대로 언더피팅일 경우는 어떻게 할까요?
언더피팅일 경우는 우선 학습이 덜 되었다고 가정하고 학습을 더 진행해야합니다. 만약 그래도 되지 않는다면, 설계에 문제가 있다고 판단하고 적절한 데이터와 라벨링이 이루어져있는지 데이터를 검수하는 과정을 거치는 것이 필요하다고 생각합니다.