profile
NLP취준생
post-thumbnail

Faiss (scaling up)

부스트코스의 딥러닝으로 만드는 질의응답 시스템을 보고 정리한 것입니다.question, passage 두 부분에 encoder 존재question은 입력과 동시에 encoding을 함passage는 미리 encoding을 해 둠passage의 수가 많아지면 많아질수록

2023년 2월 17일
·
0개의 댓글
·
post-thumbnail

Passage Retrieval - Dense Embedding

boost course의 딥러닝으로 만드는 질의응답 시스템을 보고 정리하였습니다. 0인 값이 많아 비효율적유사성 고려 x더 작은 차원의 고밀도 벡터로 변환각 차원이 특정 단어에 대응되지 안흠대부분의 요소가 non-zero단어의 유사성 또는 맥락을 파악하는 경우 성능이

2023년 2월 15일
·
0개의 댓글
·

Passage Retrieval - Sparse Embedding

boost course의 딥러닝으로 만드는 질의응답 시스템을 보고 정리하였습니다. Passage Retrieval 질문에 맞는 문서를 찾아주는 것 웹 상의 관련 문서를 가져오는 것 Passage Retrieval with MRC Open-domain Questi

2023년 2월 15일
·
0개의 댓글
·

Generation-based MRC

boost course의 딥러닝으로 만드는 질의응답 시스템을 보고 복습차원에서 정리한 것입니다. Generation-based MRC 주어진 지문과 질문을 보고 답변을 생성하는 문제 (generation) 모든 Q&A task는 Generation-based MRC

2023년 2월 15일
·
0개의 댓글
·

Extraction-based MRC

boost course의 딥러닝으로 만드는 질의응답 시스템 강의를 보고 복습차원에서 저일한 것입니다. Extraction-based MRC 질문에 대한 답변이 지문내에 span으로 존재하는 경우 문제를 정답을 생성하는 것이 아닌 text의 위치를 파악하는 문제로 바

2023년 2월 15일
·
0개의 댓글
·
post-thumbnail

Machine Reading Comprehension

boost course 딥러닝으로 만드는 질의응답 시스템 정리입니다. MRC - 주어진 문단을 이해하고 문단에 기반하여 주어진 질문에 대한 답변을 맞추는 문제 Input - context(문단), question(질문)output - answer(문단에 대한 정답)Go

2023년 2월 12일
·
0개의 댓글
·
post-thumbnail

Transformer

boost course 자연어 처리의 모든 것 강의를 보고 복습차원에서 정리해 보았습니다. 앞의 chapter에서 설명드린 RNN의 구조에 대해서 간단하게 살펴보고 가겠습니다. RNN은 현 시점의 input과 이전 시점의 hidden state를 입력으로 받는다고 하

2023년 2월 8일
·
0개의 댓글
·
post-thumbnail

Beam search & evaluation metric

boost course의 자연어 처리의 모든 것을 보고 강의 복습차원에서 작성하였습니다. 앞선 chapter에서는 seq2seq 모델에 대해서 설명을 하였습니다. seq2seq model의 decoder는 encoder에서 나온 output과 decoder의 input

2023년 2월 7일
·
0개의 댓글
·
post-thumbnail

Sequence-to-sequence with attention

boost course의 자연어 처리의 모든 것 강의를 보고 복습차원에서 작성하였습니다.앞선 내용들 까지는 RNN의 구조와 문제점, lstm, gru에 대해서 살펴보았습니다. 이번에서는 이러한 모델들을 가지고 Sequence-to-sequence model을 만들고

2023년 2월 6일
·
0개의 댓글
·
post-thumbnail

LSTM( long short-term memory ) & GRU( Gated recurrent unit )

boost course의 자연어처리의 모든 것을 보고 복습차원에서 작성하였습니다. 앞에서는 RNN과 RNN을 이용한 CHARACTER LEVEL language model에 대해서 살펴보았습니다. CHARACTER LEVEL language model은 위의 그림과

2023년 2월 6일
·
0개의 댓글
·
post-thumbnail

Recurrent Neural Net

boost course 자연어처리의 모든 것의 강의를 보고 rnn에 대해 정리하였습니다.RNN은 입력과 출력을 시퀀스 단위로 처리하는 모델입니다. 현재 입력값에 대하여 이전 입력값들에 대한 정보를 바탕으로 예측값을 산출한다는 말입니다. 예를들어 I am a studen

2023년 2월 5일
·
0개의 댓글
·
post-thumbnail

word2vec/GLOVE

Stanford의 cs224n 강의를 보고 복습차원에서 정리하였습니다. 저번 강의에서는 word2vec에 대해서 주요 개념들을 정리하였습니다. 이번 챕터에서는 저번챕터에 이어 word2vec과 Glove에 대해서 알아보겠습니다. word2vec ▶저번시간 내용 ra

2023년 2월 4일
·
0개의 댓글
·
post-thumbnail

word2vec

Stanford의 cs224n 강의를 보고 복습차원에서 정리하였습니다. 언어라는 것은 지식을 전달하는 매개체로서 인간의 발전을 이끌어 왔고 현대에서도 아주 중요한 역할을 해오고 있습니다. cs224n의 강의는 이러한 인간의 언어를 어떻게 하면 컴퓨터가 인간의 언어를 더

2023년 2월 1일
·
0개의 댓글
·