작성자 : 서울여자대학교 정보보호학과 강의정
So that's why language is good!!
meaning
Commonest linguistic way of thinking of meaning:
denotational semantics
signifier (symbol) ⟺ signified (idea or thing)
: a thesaurus containing lists of synonym sets and hypernyms
Problem:
Solution:
Word Vector
: Word2vec (Mikolov et al. 2013) is a framework for learning word vectors
Idea
Example windows and process for computing
Next..
: objective function is the (average) negative log likelihood
Minimizing objective function ⟺ Maximizing predictive accuracy
Object Function을 최소화 하는 를 찾는다.
𝜽
Object Function 최소화를 위해 center word, context word로 각각 미분
gradient descent를 활용하여 예측율을 올릴 수 있다!
CS224n 2019 - lecture01. Introduction and Word Vector (slides)(https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1194/slides/cs224n-2019-lecture01-wordvecs1.pdf)
투빅스 14기 한유진
human language부터 시작해서 Word2Vec까지의 기초를 잘 설명해주셔서 좋았습니다. 좋은 강의 감사합니다!
word2vec의 목적함수 미분이 잘 이해가 가지 않았는데, 한눈에 보기 쉽게 써주셔서 이해하기 쉬웠던 것 같습니다.
word2vec에 대해 자세히 살펴볼 기회가 되어서 정말 좋았던 것 같습니다. 감사합니다.
투빅스 14기 정재윤
투빅스 14기 강의정님께서 cs224n의 lecture 1에 대해서 발표해주셨습니다.
word2vec의 gradients를 구하는 방식을 수식으로 상세하게 설명해주신 점이 인상깊었습니다. 감사합니다.
투빅스 14기 이정은
특히 word2vec의 목적함수의 미분 계산 과정을 자세히 설명해주신 점이 좋았습니다. 감사합니다 : )
투빅스 15기 이윤정
앞으로 텍스트 세미나를 진행하면서 필요할 공부의 기초를 자세하게 배울 수 있어 좋았습니다. 특히, word2Vec의 gradient descent 부분의 수식 부분을 자세히 알려주신 부분이 좋았습니다. 감사합니다.
투빅스 15기 조효원
nlp의 목표는 사실상 컴퓨터로 하여금 언어의 의미를 이해하도록 하는 것이다. 하지만 컴퓨터는 연산 도구에 불과하기에 숫자의 형태로 단어를 바꾸어줘야 한다. 이를 위해 tree형태의 단어 사전은 wordnet, 즉 시소러스 방식이 빈번하게 사용되었다. 하지만 이는 업데이트의 비용이 굉장히 비싸고 주관적이라는 단점이 있다. 따라서, 인간이 직접 관여하지 않는 방식을 생각했는데, 가장 간단한 방식은 one-hot encoding 방식이다. 그러나 이 방식은 단어의 의미를 나타낼 수 없고 차원이 지나치게 커진다는 단점이 있었다. 즉, one-hot의 큰 차원과 의미정보를 담지 못한다는 단점을 해결한 것이 바로 embedding 기법이며, 대표적으로 word2vec이 있다. 이는 분포의미론에 기반을 한 임베딩 기법으로, 주변 단어를 통해 중심단어를 예측하는 CBOW와 중심단어를 통해 주변 단어를 예측하는 SKIP_GRAM 모델로 나누어진다.
강의를 보았을 때, 빠르게 지나가 완벽하게 이해하기 어려웠던 목적함수의 미분 부분을 잘 정리해주셔서 너무 좋았습니다. 감사합니다!
투빅스 15기 이수민
수식 부분을 자세하게 설명해 주셔서 이해하는 데에 도움이 많이 되었습니다. 감사합니다 😊
투빅스 15기 김동현
예전에는 One-hot vector를 사용하여 단어 간의 유사도를 계산했다. 하지만 단어가 많아질수록 차원이 커져 비용이 많이드는 단점이 있다.
이를 보완하기 위해 등장한 Word2vec은 문맥을 통해 결정하는 방법으로 중심단어와 주변단어를 활용하여 word vector를 학습하는 방법이다.
CBOW는 주변단어로 중심단어를 유추하고, Skip-gram은 중심단어로 주변단어를 유추하는 방법이다.
word2vec의 기초를 살표볼 수 있어 좋았고, 수식을 자세히 설명해주셔서 이해가 잘되었습니다. 감사합니다 :)
투빅스 15기 조준혁
NLP 공부를 시작하는 데에 있어서 잡고 가면 좋을 언어에 대한 접근을 들을 수 있어 좋았습니다.
Word2Vec의 목적함수 수식도 잘 풀어 설명해주신 것 같았습니다. 감사합니다 :)