# CBOW

6개의 포스트
post-thumbnail

Efficient Estimation of Word Representations in Vector Space 하편

Efficient Estimation of Word Representations in Vector Space 하편

2022년 6월 1일
·
0개의 댓글
post-thumbnail

[NLP] Word Embedding

이 글은 '딥러닝을 이용한 자연어처리 입문'을 참고하여 작성하였습니다. 워드 임베딩이란 텍스트를 컴퓨터가 이해할 수 있도록 숫자로 변환하는 방법입니다. 단어를 표현하는 방법에 따라 자연어처리의 성능이 달라지기 때문에 효율적으로 처리하기 위한 방법이 많이 연구되고 있습

2022년 5월 23일
·
0개의 댓글
post-thumbnail

[DL] Word2Vec

Embedding, Word2Vec, 분포가설

2022년 3월 12일
·
0개의 댓글
post-thumbnail

[밑바닥부터 시작하는 딥러닝2] 05. Word Embedding

자연어: 우리가 평소에 쓰는 말자연어 처리(NLP; Natural Language Processing): 우리의 말을 컴퓨터에게 이해시키기 위한 분야말은 문자로 구성되고, 문자는 단어로 구성된다.$\\therefore$ NLP에서는 단어의 의미를 이해시키는 것이 중요함

2022년 1월 24일
·
0개의 댓글
post-thumbnail

[NLP실습]1.자연어 처리 개요-단어 임베딩

이번 포스팅은 앞의 이론에서 언급했었던 임베딩 방법들을 한번 더 설명하고, 구현해보겠습니다.이론 포스팅은 여기를 클릭해주세요.​단어 임베딩이란 컴퓨터가 언어적인 의미가 담겨있는 자연어를 인식하기 위해, 언어적 특성을 반영하여 수치화 하는 것을 뜻합니다.단어 임베딩은 다

2021년 1월 21일
·
0개의 댓글
post-thumbnail

[NLP이론]1.자연어 처리 개요-단어 임베딩

"어떻게 자연어를 컴퓨터에게 인식시킬 수 있을까?"에 대한 문제입니다.

2021년 1월 20일
·
0개의 댓글