zero217.log
로그인
zero217.log
로그인
Week4 Day1
김종영
·
2021년 2월 15일
팔로우
0
0
📋
N
a
t
u
r
a
l
Natural
N
a
t
u
r
a
l
L
a
n
g
u
a
g
e
Language
L
a
n
g
u
a
g
e
P
r
o
c
e
s
s
i
n
g
Processing
P
r
o
c
e
s
s
i
n
g
h
u
m
a
n
human
h
u
m
a
n
l
a
n
g
u
a
g
e
language
l
a
n
g
u
a
g
e
를 적절하게 이해하고 만들어내는 것을 목표로한다.
l
a
n
g
u
a
g
e
language
l
a
n
g
u
a
g
e
m
o
d
e
l
i
n
g
modeling
m
o
d
e
l
i
n
g
,
m
a
c
h
i
n
e
machine
m
a
c
h
i
n
e
t
r
a
n
s
l
a
t
i
o
n
translation
t
r
a
n
s
l
a
t
i
o
n
,
q
u
e
s
t
i
o
n
question
q
u
e
s
t
i
o
n
a
n
s
w
e
r
i
n
g
answering
a
n
s
w
e
r
i
n
g
,
d
o
c
u
m
e
n
t
document
d
o
c
u
m
e
n
t
c
l
a
s
s
i
f
i
c
a
t
i
o
n
classification
c
l
a
s
s
i
f
i
c
a
t
i
o
n
a
n
d
and
a
n
d
d
i
a
l
o
g
dialog
d
i
a
l
o
g
s
y
s
t
e
m
system
s
y
s
t
e
m
📌
B
a
g
Bag
B
a
g
-
o
f
of
o
f
-
W
o
r
d
s
Words
W
o
r
d
s
r
e
p
r
e
s
e
n
t
a
t
i
o
n
representation
r
e
p
r
e
s
e
n
t
a
t
i
o
n
u
n
i
q
u
e
unique
u
n
i
q
u
e
w
o
r
d
word
w
o
r
d
를 포함하는
v
o
c
a
u
l
a
r
y
vocaulary
v
o
c
a
u
l
a
r
y
구성
u
n
i
q
u
e
unique
u
n
i
q
u
e
w
o
r
d
word
w
o
r
d
를
o
n
e
one
o
n
e
-
h
o
t
hot
h
o
t
v
e
c
t
o
r
vector
v
e
c
t
o
r
로
e
n
c
o
d
i
n
g
encoding
e
n
c
o
d
i
n
g
모든 단어들의
p
a
i
r
pair
p
a
i
r
d
i
s
t
a
n
c
e
distance
d
i
s
t
a
n
c
e
가 같다.
모든 단어들의 사이 유사도가 같다.
📌
N
a
i
v
e
B
a
y
e
s
NaiveBayes
N
a
i
v
e
B
a
y
e
s
C
l
a
s
s
i
f
i
e
r
Classifier
C
l
a
s
s
i
f
i
e
r
f
o
r
for
f
o
r
D
o
c
u
m
e
n
t
Document
D
o
c
u
m
e
n
t
C
l
a
s
s
i
f
i
c
a
t
i
o
n
Classification
C
l
a
s
s
i
f
i
c
a
t
i
o
n
d
o
c
u
m
e
n
t
document
d
o
c
u
m
e
n
t
가 주어졌을 때 문서가 어떤
c
l
a
s
s
class
c
l
a
s
s
에 속하는지 분류하는 태스크
베이즈룰을 사용해서 분류하는 방식
📌
W
o
r
d
2
V
e
c
Word2Vec
W
o
r
d
2
V
e
c
하나의 차원에 단어의 모든 의미를 표현하는
o
n
e
one
o
n
e
-
h
o
t
hot
h
o
t
e
n
c
o
d
i
n
g
encoding
e
n
c
o
d
i
n
g
과 달리 단어의
d
i
s
t
r
i
b
u
t
e
d
distributed
d
i
s
t
r
i
b
u
t
e
d
r
e
p
r
e
s
e
n
t
a
t
i
o
n
representation
r
e
p
r
e
s
e
n
t
a
t
i
o
n
을 학습하고자 한다.
같은 문장에 속한 단어들을 학습하여 비슷한 의미의 단어가 좌표상의 비슷한 위치로
m
a
p
p
i
n
g
mapping
m
a
p
p
i
n
g
될 수 있도록
📌
G
l
o
V
e
GloVe
G
l
o
V
e
특정한 입출력 셋이
w
i
n
d
o
w
window
w
i
n
d
o
w
안에 빈번하게 발생하여 여러번 학습될 때 내적값이 커질 수 있는데 애초에 입출력 셋 쌍에 대한 발생횟수를 미리 계산하여
l
o
s
s
loss
l
o
s
s
t
e
r
m
term
t
e
r
m
에 추가해주는 방식
중복 계산을 줄여주고,
W
2
V
W2V
W
2
V
에 비해 상대적으로 학습 빠르고, 적은 데이터에 잘 동작
김종영
팔로우
이전 포스트
Week3 Day4
다음 포스트
Week4 Day2
0개의 댓글
댓글 작성
관련 채용 정보