하이퍼파라미터 | 제안 값 |
---|---|
입력 유닛의 수 | 특성의 수와 같아야 함 |
출력 유닛의 수 | 예측 변수의 개수와 같아야 함 |
은닉층의 활성화 함수 | ReLU 추천 |
출력층의 활성화 함수 | 없음(범위 제한을 위해선 사용 가능) |
비용(손실)함수 | MSE(평균제곱합) |
하이퍼파라미터 | 이진 분류 | 다중 레이블 분류 | 다진 분류 |
---|---|---|---|
입력층과 은닉층 | 회귀와 동일 | 회귀와 동일 | 회귀와 동일 |
출력 유닛의 수 | 1개 | 레이블마다 1개 | 클래스마다 1개 |
출력층의 활성화 함수 | 로지스틱 함수 | 로지스틱 함수 | 소프트맥스 함수 |
손실 함수 | 크로스 엔트로피 | 크로스 엔트로피 | 크로스 엔트로피 |
❗Loss function마다 성질은 다 다르고 경우에 따라서 오류를 일으킬 수 있음. 따라서 loss를 이해하고, 이를 적절히 이용할 수 있어야 함(위 예시는 '정해진 것'이 아님!)
- 대표적인 Activation Functions (wikipedia)