딥러닝에서 신경망의 성능과 학습 속도를 좌우하는 중요한 요소 중 하나는 초기화 방법입니다. 특히 nn.Conv*
계열과 nn.Linear
레이어에서 기본적으로 Kaiming(He) 초기화가 사용되며, 이는 ReLU 계열 활성화 함수와 잘 어울립니다.
0
으로 초기화init.kaiming_normal_(conv.weight, mode='fan_in', nonlinearity='relu')
init.zeros_(conv.bias)
0
또는 균등 분포로 초기화init.kaiming_normal_(linear.weight, nonlinearity='relu')
init.zeros_(linear.bias)
reset_parameters()
메서드 내부에서 자동 적용됨nn.init.kaiming_uniform_
함수로 초기화레이어 타입 | 기본 초기화 방법 | 편향 초기화 |
---|---|---|
Conv Layer | Kaiming Uniform (He) | 0 |
Linear Layer | Kaiming Uniform (He) | 0 또는 Uniform |