Batch Normalization

우수민·2021년 7월 16일
0
post-custom-banner

  • 효과
    1. 학습 속도 개선
    2. 가중치 초기값(Initial weights)의 의존도 감소
    3. 과적합 방지
    4. 기울기 손실(Gradient vanishing) 문제 해결
  • 계층 정규화(Layer normalization) : 주로 순환 신경망에서 배치 정규화와 비슷한 교화가 있으며 빠르게 수렴하게 도와준다.
    • 계층 정규화는 네트워크 각 층의 출력 분포를 정규화하는 것이다.
# 코드 2.16

class LayerNorm(nn.Module):
    def __init__(self, hidden_size, eps=1e-5):
        """Construct a layernorm module in the TF style (epsilon inside the square root).
        """
        super(LayerNorm, self).__init__()
        self.weight = nn.Parameter(torch.ones(hidden_size))
        self.bias = nn.Parameter(torch.zeros(hidden_size))
        self.variance_epsilon = eps

        self.init_weights()

    def init_weights(self):
        self.weight.data.fill_(1.0)
        self.bias.data.zero_()

    def forward(self, x):
        u = x.mean(-1, keepdim=True)
        s = (x - u).pow(2).mean(-1, keepdim=True)
        x = (x - u) / torch.sqrt(s + self.variance_epsilon)
        return self.weight * x + self.bias
profile
데이터 분석하고 있습니다
post-custom-banner

0개의 댓글