# SVD
[머신러닝] 8. 비지도학습_PCA(차원축소)
feature가 많을수록 데이터의 차원이 커지게 되는데, 데이터셋의 크기에 비해 feature가 많아질 경우 이를 표현하기 위한 변수가 많아져 모델의 복잡성이 증가되고 과적합 문제가 발생되기도 합니다.이러한 문제를 해결하기 위해 차원 축소 방법이 사용되고 있습니다.\*
[선형대수학] SVD를 위한 기초
SVD 하기 전에 대각화를 알아야 되고 대각화를 알기 전에 고유값(eigen value)과 고유 벡터(eigen vector)에 대해 알아야 한다.. 맨날 까먹어서 정리한다.

[NLP] SVD로 희소 행렬 압축하기
목차 동시발생행렬과 PPMI 차원 축소 Orthogonal Matrix Support Vector Machine Principal Component Analysis SVD로 단어 벡터 차원 축소 말뭉치에 적용 PTB 데이터셋에 적용

SVD 활용 - Eigenfaces(고유얼굴)
SVD(특잇값분해)를 얼굴 사진에 사용해 나오는 Eigenvectors(고유벡터)들을 Eigenfaces(고유얼굴)라고 부르고, 그것들을 결합해 원래 얼굴을 복구하는 과정을 파이썬으로 구현해보려고 한다.
Stanford CS224n Lec1: SVD and Word2Vec
Word Vectors 우리는 NLP task에 단어를 입력으로 사용한다. NLP task를 수행하기 위해서는 단어간의 유사성과 차별성을 파악/적용할 수있어야 한다. 영어에는 1300만 개의 단어가 있고 서로 연관성이 있는 단어들이 많다. 단어들을 벡터로 표현하고 그

AI HUB 에세이 글 평가 데이터 Bert 예측 모델 만들기(2)
이전 글에 이어서 데이터 전처리와 모델링 과정을 정리하고자 한다. 4. 데이터 전처리 json파일로부터 필요한 데이터를 가져와 train, test에 넣어주었다. 데이터 전처리는 train, test 구분 없이 한번에 처리하기 위해 temp로 합쳤다. 나중에 학습할

데이터 사이언스2
목차 n차원 배열의 선형 대수학 pandas > 원문 https://numpy.org/numpy-tutorials/content/tutorial-svd.html 1. n차원 배열의 선형 대수학 전제조건 컴퓨터에 matplotlib 및 SciPy 도 설치되어 있어

파이썬 머신러닝 완벽 가이드 - 7. Dimension Reduction(2) (SVD, NMF)
: PCA와 유사. 정방 행렬뿐만 아니라 행과 열의 크기가 다른 행렬에도 적용 가능Full SVD$A = U \\sum V^T$$A$ : 행렬, $U$, $V$: 특이벡터(Singular vector)로 된 행렬, $\\sum$ : 대각행렬$\\sum$ : 대각행렬
Collaborative Filtering_모델 기반 Explicit
추천시스템의 종류 1. Collaborative Filtering □ 메모리 기반 접근 (Neighborhood-based) ☑ 모델 기반 접근 2. Side Information-based Recommendation □ 컨텐츠 기반 추천 □ 컨텐츠 기반 Col

넷플릭스 프라이즈 요점 정리
Netflix Prize?→ 2006년 10월부터 2009년 7월까지 약 3년에 걸쳐 이어진 기계학습을 통한 영화 평가 데이터 예측 대회→ ‘collaborative filtering’, SVD를 활용한 SVD++는 이후 굉장히 많은 분야에서 활용Cinematch 알고

EVD, SVD, PCA, LDA
기저란 백터공간 V에 대하여 임의의 벡터집합 S가 ① 서로 1차 독립이면서 ② 벡터공간 V를 생성하면 S는 V의 기저이다.
SVD(Singular Value Decomposition) - 특이값 분해
특이값 분해는 차원축소 기법인(PCA)에서 사용된다.$m$ x $n$ 행렬 $A$가 있을 때 이 행렬 A는 다음과 같이 분해될수 있다.$A = \\ U\\sum{}V^T = \\ (rotate)(stretch)(rotate)$$U$ = ($m$ x $m$) orthog

[Boostcamp AI Tech] Collaborative Filtering (2)
[Boostcamp AI Tech] Collaborative Filtering (2)

[밑바닥부터 시작하는 딥러닝2] 05. Word Embedding
자연어: 우리가 평소에 쓰는 말자연어 처리(NLP; Natural Language Processing): 우리의 말을 컴퓨터에게 이해시키기 위한 분야말은 문자로 구성되고, 문자는 단어로 구성된다.$\\therefore$ NLP에서는 단어의 의미를 이해시키는 것이 중요함
차원축소
많은 피처로 구성된 데이터세트의 경우, 상대적으로 적은 차원에서 학습된 모델보다 예측 신뢰도가 떨어진다. 또한 개별 피처간에 상관관계가 높을 가능성도 크다. 선형회귀와 같은 선형 모델에서는 입력 변수 간의 상관관계가 높을 경우 이로 인한 다중공선성 문제로 모델의 예측
단어의 의미를 학습시키는 방법
"밑바닥부터 시작하는 딥러닝2"를 기반으로 정리한 내용입니다.자연어를 컴퓨터에게 이해시키려면 "단어의 의미"를 이해시켜야 한다. 지금부터 컴퓨터에게 단어의 의미에 대해 학습시킬 수 있는 3가지 기법에 대해 알아보자.