이 글은 개인적인 공부를 위해 해외 기사를 번역해서 리뷰한 것입니다!
*PCA
What is Manifold Learning?
Manifold = 고차원의 데이터 - 고차원의 데이터를 공간상에 표현할 때 찍히는 점들을 아우르는 subspace = Manifold(원본 공간) - Manifold를 찾는 것 = Manifold Learning - 잘 찾은 Manifold에서 projection 시키면 데이터의 차원이 축소될 수 있다. - Manifold 학습 = 학습이 되지 않은 상태에서 데이터를 통해 모델을 학습해 나가는 것. - 스위스 롤
Manifold Learning은 Manifold assumption에 기반을 두고 있다.
Manifold Hypothesis(assumption) in general
(a) Natural data in high dimensional spaces concemtrates close to lower dimensional manifolds
: 고차원의 데이터의 밀도는 낮지만, 이들의 집합을 포함하는 저차원의 매니폴드가 있다.
(b) Probability density decreases very rapidly when moving away from the supporting manifold.
: 이 저차원의 매니폴드를 벗어나는 순간 밀도는 급격히 낮아진다.
reference : https://junstar92.tistory.com/157
Manifold assumption in semi-supervised learning?
(a) the input space is composed of multiple lower-dimensional manifolds on which all data lie
(b) data points lying on the same manifold have the same label
Manifold 학습은 탐색적 데이터 분석에 유용하고, 지도학습에는 사용하지 않기 때문에 semi-supervised로 사용
이웃 데이터 포인트에 대한 정보 보존이 가장 큰 목적이다.
*t-SNE