핵심: 딥러닝 모델의 과적합 방지수식비용함수cost function + 가중치 크기 => 가중치가 너무 크지 않은 방향으로 학습학습률이 상수가 0에 가까울 수록 정규화 효과가 사라짐가중치 절댓값을 더해줌w: 편미분 시 상수값이 되어버리고 부호에 따라 +-가 결정됨.가
정의: 벡터의 길이 혹은 크기를 측정하는 함수로 측정한 벡터의 크기는 원점~벡터 좌표의 거리, 구성요소의 크기(magnitude)표현조건Absolutely homogeneousTriangle inequalityPositive definite특징: 각 요소별로 요소의 절
PCA를 이해하기 위해 필요한 개념을 먼저 톺아보도록 합니다\*주성분여기서 주성분이라 함은 데이터들의 분산(데이터가 흩어진 정도)이 가장 큰 방향벡터입니다.위의 그림에서 주성분은 무엇일까요? a1과 a2 중에 어느 것이 더 데이터들이 흩어져 있나요? a2그러므로 주성