
2024.12.21
1. MNIST 데이터
2. MNIST_Fashin 데이터


sparse_categorical_crossentropy로 설정하면 동일한 효과이다. (저절로 One-Hot-Encoding 진행된다)

softmax: Multi-Class Classification with NN and SoftMax Function






[0]에 대한 결과는 7이다 ( 7번째 값이 제일 1에 가까움)

가장 높은 숫자 확인 -> argmax() 함수 적용
predict한 숫자가 무엇인지 10개 조회

y_test와 비교

결과비교 1번방법


결과비교 2번방법




Train,Test데이터를 255로 나누는 이유
정규화의 이유와 효과
1) 픽셀 값의 범위
2) 정규화의 의미
3) 정규화의 장점
학습 안정화 : 큰 값은 경사 하강법(gradient descent)을 수행할 때 급격한 변화(폭발적 그라디언트 문제)를 유발할 수 있습니다. 이를 방지하고 학습이 안정적으로 이루어집니다.더 빠른 수렴 : 정규화된 데이터는 더 빠르게 수렴하며, 학습 속도가 빨라질 수 있습니다.모델 성능 향상 : 정규화는 신경망의 가중치와 편향이 적절히 조정되도록 도와주어 일반화 성능이 향상됩니다.숫자의 일관성 유지 : 다른 특성과 함께 사용할 경우, 데이터가 정규화되면 숫자의 상대적 크기를 유지하며 비교하기 쉬워집니다.








