📝 Learning Internal Representations by Error Propagation
신경망의 학습은 입력과 출력 간의 관계를 모델링하는 데 중점을 둠
기존의 학습 방법은 단층 신경망에 제한적이며, 복잡한 패턴 인식에 한계가 있음
다층 신경망의 효과적인 학습을 위해 오류 역전파 방법이 제안됨
오류 역전파는 출력에서 발생한 오류를 역방향으로 전파하여 가중치를 조정하는 방법임
이 알고리즘은 각 층의 가중치를 효율적으로 업데이트하여 학습을 진행함
수학적 기초는 경사 하강법에 기반하며, 체인 룰을 활용하여 오류를 전파함
손실 함수(Loss Function) :
: 예측값 와 실제값 의 차이를 나타내며, 일반적으로 평균 제곱 오차(MSE)를 사용한다.
가중치 업데이트:
각 가중치 는 학습률 𝜂와 손실 함수의 변화율(기울기) 를 사용하여 조정된다.
은닉층은 입력 데이터의 중요한 특징을 추출하는 역할을 함
오류 역전파를 통해 은닉층의 뉴런들이 유용한 내부 표현을 학습하게 됨
이러한 내부 표현은 복잡한 패턴 인식과 일반화에 기여함
다양한 데이터셋을 활용하여 오류 역전파 알고리즘의 성능을 평가함
실험 결과, 다층 신경망이 단층 신경망보다 우수한 성능을 보임
특히, 비선형적이고 복잡한 문제에서 다층 신경망의 효과가 두드러짐
오류 역전파 알고리즘은 다층 신경망의 학습을 가능하게 하여, 복잡한 패턴 인식 문제를 해결하는 데 중요한 도구가 됨.
이 연구는 신경망의 학습 방법에 대한 새로운 관점을 제시하며, 이후의 연구와 응용에 큰 영향을 미침.