# GloVe
Stanford CS224n Lec2: GloVe, Evaluation, Training
Global Vectors for Word Representation (GloVe) 이전 모델과의 비교 참고 사항 _ Word Embedding = Word Vector : 단어를 밀집 벡터 형태로(Dense Vector) 나타내는 것을 말한다. Word Embedd

Word2Vec, Glove
Word Embedding : 분산표현(Distributed Representation)을 이용해 단어간 의미적 유사성을 벡터화하는 작업 의미가 비슷한 단어 → 비슷한 벡터값을 갖게 한다 → 분류 테스크 진행 시 잘 부합됨, 머신러닝 task를 할 때 좋은 요건이 된다

word2vec/GLOVE
Stanford의 cs224n 강의를 보고 복습차원에서 정리하였습니다. 저번 강의에서는 word2vec에 대해서 주요 개념들을 정리하였습니다. 이번 챕터에서는 저번챕터에 이어 word2vec과 Glove에 대해서 알아보겠습니다. word2vec ▶저번시간 내용 ra

단어 임베딩
단어 임베딩 : 단어를 낮은 차원의 벡터로 나타내는 것원핫 인코딩은 sparse, 용량 많이 차지, 단어 의미 고려 안함단어의 의미를 좌표로 나타내는 것 또는 수치화 → 의미가 비슷한 단어들은 비슷한 값을 가짐단어 임베딩의 다차원 공간상에서 방향에 의미가 있어야 함단어
[CS224n #1] GloVe: Global Vectors for Word Representation (EMNLP, 2014)
BackgroundWord2vec의 한계 : vector space representation learning의 발달에도 아직 regularities가 아직 부족 (Regularity is the quality of being stable and predictable.

[자연어처리] Static Word Embedding 후 결과 비교 분석하기
영화 감상이 취미인 나는 거의 매주 영화관에 가서 개봉하는 영화들을 챙겨봤었는데 영화를 많이 보다 보니 좋아하는 영화 감독이 생겼고 그들의 영화가 개봉하면 꼭 챙겨보고 있다. 좋아하는 감독들의 연출기법, 장르, 소재, 분위기 등은 각자 완전히 다른데, 문득 내가 왜 그
NLP 기초 (2)
Contents Word2Vec Glove 기존 모델 단점 Word Embedding 기존 정수 인코딩의 한계? 단어 사이의 연관성을 파악하기 어려움 원-핫 인코딩의 한계? 메모리 문제 희소 표현 (Sparse Representation)

[CS224n] Lecture 2: Word Vectors, Word Senses, and Neural Classifiers
강의자: 16기 김윤혜

[CS224n] Lecture 2 - Word Vectors and Word Senses
작성자 : 투빅스 14기 이혜린 > Contents Word2vec Co-occurrence matrix GloVe Evaluation 1. Word2Vec 텍스트 모델의 핵심은 텍스트를 컴퓨터가 인식할 수 있도록 숫자 형태의 벡터 또는 행렬로 변환하는 것입니다