์๊ฐํ๋ ๋ชฉ์ NLP sub task
๋ฌธ์ task ๊ตฌ๋ณ, benchmark dataset ๋ฐ model ์๊ธฐ
NLU > ์์ฐ์ด ์ดํด ๋ ํ ์คํธ ๋ถ๋ฅ, ์์ฐ์ด ์ถ๋ก ๋ฐ ์ด์ผ๊ธฐ ์ดํด์ ๊ฐ์ ๋ค์ํ ์์ ์ ํฌํจํ๋ ์์ฐ์ด ์ฒ๋ฆฌ์ ์ค์ํ ๋ถ์ผ์ ๋๋ค. ์์ฐ์ด ์ดํด๋ก ์ง์๋๋ ์์ฉ ํ๋ก๊ทธ๋จ์ ์ง๋ฌธ ๋ต๋ณ(QA)์์ ์๋ ์ถ๋ก ์ ์ด๋ฅด๊ธฐ๊น์ง ๋ค์ํฉ๋๋ค. ์ถ์ฒ : paperswithcode QA ( Question Answering ) BERT-QA(Question-Answ...
NLG
NLG : Extractive Summarization
Pretraining Model, Fine tuning, Transfer Learning์ด๋?, BERT Fine-Tuning workflow
GPT, ALBERT, RoBERTa
์์ค์ฝ๋ ๋ฐ๋ก๊ฐ๊ธฐ task์ ๋ชฉํ : ์ฃผ์ด์ง ์ง๋ฌธ์ ๋ํ ๋จ๋ฝ์์ ๋ต์ ์ถ์ถํ๋ ๊ฒ input : ์ง๋ฌธ(Q)-๋จ๋ฝ(paragraph) ์(question-paragraph pair) Q : ๋ฉด์ญ ์ฒด๊ณ๋ ๋ฌด์์ ๋๊น? paragraph : ๋ฉด์ญ ์ฒด๊ณ๋ ์ง๋ณ์ผ๋ก๋ถํฐ ๋ณดํธํ๋ ์ ๊ธฐ์ฒด ๋ด์ ๋ค์ํ ์๋ฌผํ์ ๊ตฌ์กฐ์ ๊ณผ์ ์ ์์คํ ์ ๋๋ค. ์ ๋๋ก ๊ธฐ๋ฅํ๋ ค๋ฉด .... ...