# GloVe

13개의 포스트

Stanford CS224n Lec2: GloVe, Evaluation, Training

Global Vectors for Word Representation (GloVe) 이전 모델과의 비교 참고 사항 _ Word Embedding = Word Vector : 단어를 밀집 벡터 형태로(Dense Vector) 나타내는 것을 말한다. Word Embedd

2023년 2월 15일
·
0개의 댓글
·
post-thumbnail

Word2Vec, Glove

Word Embedding : 분산표현(Distributed Representation)을 이용해 단어간 의미적 유사성을 벡터화하는 작업 의미가 비슷한 단어 → 비슷한 벡터값을 갖게 한다 → 분류 테스크 진행 시 잘 부합됨, 머신러닝 task를 할 때 좋은 요건이 된다

2023년 2월 9일
·
0개의 댓글
·
post-thumbnail

word2vec/GLOVE

Stanford의 cs224n 강의를 보고 복습차원에서 정리하였습니다. 저번 강의에서는 word2vec에 대해서 주요 개념들을 정리하였습니다. 이번 챕터에서는 저번챕터에 이어 word2vec과 Glove에 대해서 알아보겠습니다. word2vec ▶저번시간 내용 ra

2023년 2월 4일
·
0개의 댓글
·
post-thumbnail

단어 임베딩

단어 임베딩 : 단어를 낮은 차원의 벡터로 나타내는 것원핫 인코딩은 sparse, 용량 많이 차지, 단어 의미 고려 안함단어의 의미를 좌표로 나타내는 것 또는 수치화 → 의미가 비슷한 단어들은 비슷한 값을 가짐단어 임베딩의 다차원 공간상에서 방향에 의미가 있어야 함단어

2022년 12월 30일
·
0개의 댓글
·

[CS224n #1] GloVe: Global Vectors for Word Representation (EMNLP, 2014)

BackgroundWord2vec의 한계 : vector space representation learning의 발달에도 아직 regularities가 아직 부족 (Regularity is the quality of being stable and predictable.

2022년 8월 16일
·
0개의 댓글
·
post-thumbnail

다양한 NLP Embedding 기법.araboja

NLP embedding 기법 정복하기

2022년 7월 1일
·
0개의 댓글
·
post-thumbnail

[자연어처리] Static Word Embedding 후 결과 비교 분석하기

영화 감상이 취미인 나는 거의 매주 영화관에 가서 개봉하는 영화들을 챙겨봤었는데 영화를 많이 보다 보니 좋아하는 영화 감독이 생겼고 그들의 영화가 개봉하면 꼭 챙겨보고 있다. 좋아하는 감독들의 연출기법, 장르, 소재, 분위기 등은 각자 완전히 다른데, 문득 내가 왜 그

2022년 6월 21일
·
0개의 댓글
·

NLP 기초 (2)

Contents Word2Vec Glove 기존 모델 단점 Word Embedding 기존 정수 인코딩의 한계? 단어 사이의 연관성을 파악하기 어려움 원-핫 인코딩의 한계? 메모리 문제 희소 표현 (Sparse Representation)

2022년 5월 19일
·
0개의 댓글
·
post-thumbnail

Lecture 2 - Word Vectors and Word Senses

작성자 : 동덕여자대학교 정보통계학과 한유진

2021년 4월 14일
·
13개의 댓글
·

[NLP]Glove

2021.1.26 화 Glove 개념, 작동과정, 증명 정리

2021년 1월 26일
·
0개의 댓글
·
post-thumbnail

[CS224n] Lecture 2 - Word Vectors and Word Senses

작성자 : 투빅스 14기 이혜린 > Contents Word2vec Co-occurrence matrix GloVe Evaluation 1. Word2Vec 텍스트 모델의 핵심은 텍스트를 컴퓨터가 인식할 수 있도록 숫자 형태의 벡터 또는 행렬로 변환하는 것입니다

2020년 12월 20일
·
0개의 댓글
·