앞서 말했듯이, 모델의 성능은 하이퍼파라미터(hyperparameters)에 따라서 크게 달라진다. 머신러닝과 딥러닝에서 가장 대표적인 튜닝방법들을 소개한다.
- 튜닝은 train/validation dataset 에서만 수행
- test set은 최종 평가에만 사용
- 탐색 범위와 방법을 명확히 기록
- 과도한 튜닝은 과적합으로 보일 수 있음
learning rate ∈ {0.001, 0.01, 0.1}
batch size ∈ {16, 32}
→ 총 3 × 2 = 6가지 조합
구현이 단순하고 직관적
재현성이 높음
논문에서 가장 많이 사용됨
파라미터 수가 많아질수록 계산 비용 급증
불필요한 조합까지 모두 실험
파라미터 수가 적을 때 (1~3개)
탐색 범위가 작을 때
정의된 범위 내에서 무작위로 하이퍼파라미터 조합을 샘플링해 평가. Grid search의 효율적인 대안.
Grid Search보다 효율적인 경우가 많음
제한된 횟수만 실험 가능
고차원 파라미터 공간에서 효율적
계산 예산을 직접 제어 가능
최적 조합을 보장하지 않음
결과 변동성 존재
파라미터가 많을 때
계산 자원이 제한적일 때
한 번에 하나의 파라미터만 조정하며 점진적으로 좋은 값을 찾음. 현실적으로 가장 많이 사용됨
learning rate 고정 → batch size 탐색
batch size 고정 → dropout 탐색
구현과 해석이 매우 쉬움
실무와 논문에서 가장 흔히 사용됨
전역 최적해를 놓칠 수 있음
파라미터 간 상호작용 고려 어려움
빠른 실험이 필요할 때
탐색 공간이 비교적 명확할 때
이전 실험 결과를 바탕으로 다음에 시도할 파라미터를 확률적으로 선택함. 고급·고비용 상황용
Gaussian Process
Tree-structured Parzen Estimator (TPE)
실험 횟수 대비 효율적
고비용 모델에 적합
구현 복잡
작은 문제에는 과한 경우도 있음
실험 비용이 매우 클 때
파라미터 공간이 넓을 때
성능이 낮은 설정은 조기에 중단하고, 유망한 설정에만 자원을 집중하는 방식.
계산 자원 절약
대규모 실험에 적합
구현 및 설정 복잡
결과 해석이 어려울 수 있음