👉 데이터 학습을 위해 차원(변수)가 증가하면서 학습 데이터의 수가 차원의 수보다 적어져 성능이 저하되는 현상
👉 차원이 증가할 수록 개별 차원 내 학습할 데이터 수가 적어지면서 발생하는 현상
연산비용 증가, 과적합(Overfitting) 위험 증가, 모델의 예측성능 저하
👉 종속성이 강한 불필요한 특성(feature)는 제거하고, 데이터의 특징을 잘 나타내는 주요 특성(feature)만 선택
🧩 Filter, Wrapper, Embedded Method 등
❓ 더 자세한 내용은 Data_Reduction(2)_Feature Selection
👉 기존 특성(feature)를 저차원의 중요 특성(feature)로 압축하여 추출하는 것
🧩 주성분분석(RCA), 선형판별분석(LDA) 등
❓ 더 자세한 내용은 Data Reduction(1)_Feature Extraction
https://lottegiantsv3.tistory.com/114
https://github.com/ExcelsiorCJH/Hands-On-ML/blob/master/Chap08-Dimensionality_Reduction/Chap08-Dimensionality_Reduction.ipynb
https://datapedia.tistory.com/15