
이 문서는 선형대수학과 머신러닝에서 자주 등장하는 벡터의 Norm(놈) 개념을
L1 Norm, L2 Norm 중심으로 정리한 학습 기록
벡터의 크기 또는 길이를 측정하는 방법으로, 정규화, 거리 계산, 정규화 손실 함수(Loss) 등에서 활용된다.
||x||로 표기하며, 항상 0 이상의 실수값을 가진다.L1(x) = ||x||₁ = ∑ |xᵢ|
x = [3, 4]
||x||₁ = |3| + |4| = 7
L2(x) = ||x||₂ = sqrt(∑ xᵢ²)
x = [3, 4]
||x||₂ = √(3² + 4²) = √25 = 5
| 구분 | L1 Norm | L2 Norm |
|---|---|---|
| 계산 방식 | 절댓값 합 | 제곱합의 루트 |
| 거리 해석 | 맨해튼 거리 | 유클리드 거리 |
| 특징 | 희소성 유도 (sparse) | 부드러운 최적화 가능 |
| 활용 | Lasso 회귀 (L1 정규화) | Ridge 회귀 (L2 정규화) |
정규화 (Normalization)
데이터 스케일 조정을 위해 벡터를 1의 길이로 만듦 → x_normalized = x / ||x||
머신러닝 모델 정규화
거리 기반 알고리즘
Norm은 단순한 수학 개념처럼 보이지만,
머신러닝에서 정규화, 거리 측정, 손실 함수 등 핵심 요소에 모두 관여하는 중요한 개념이었다.
특히 L1과 L2 Norm의 차이와 활용 목적의 차이를 이해하고 나니,
정규화 기법이나 회귀 알고리즘 선택 시 기준을 세우기 쉬워졌다.