# skip gram

3개의 포스트
post-thumbnail

Efficient Estimation of Word Representations in Vector Space 하편

Efficient Estimation of Word Representations in Vector Space 하편

2022년 6월 1일
·
0개의 댓글
post-thumbnail

[DL] Word2Vec

Embedding, Word2Vec, 분포가설

2022년 3월 12일
·
0개의 댓글
post-thumbnail

[밑바닥부터 시작하는 딥러닝2] 05. Word Embedding

자연어: 우리가 평소에 쓰는 말자연어 처리(NLP; Natural Language Processing): 우리의 말을 컴퓨터에게 이해시키기 위한 분야말은 문자로 구성되고, 문자는 단어로 구성된다.$\\therefore$ NLP에서는 단어의 의미를 이해시키는 것이 중요함

2022년 1월 24일
·
0개의 댓글