작성자: 15기 김현지 > Content Human language and word meaning Word2vec introduction Word1vec objective function gradients Optimization basics Looking at w
작성자: UNIST 산업공학과 김건우Unit 01. word2vec (review)Unit 02. Optimization, Negative SamplingUnit 03. Word prediction methodsUnit 04. GloVeUnit 05. How to ev
작성자: 건국대학교 응용통계학과 주지훈Classification review/introductionNeural Networks introductionNeural Networks in NLPMatrix calculus
작성자 : 16기 이승주
작성자: 성균관대학교 사회학과 박지은Constituency and DependencyDependency Grammar and TreebanksTransition-based Dependency ParsingNeural Dependency Parsing우선 parsing이
작성자: 고려대학교 통계학과 김현지Contents1\. Language Modeling2\. n-gram Language Model3\. Neural Language Model4\. RNN Language ModelLanguage Modeling: 주어진 단어의 시퀀스
작성자: 투빅스 16기 김종우Contents1\. Vanishing Gradient2\. LSTM3\. GUR4\. More fancy RNN variantsGradient Problem Backpropagation 시 gradient가 너무 작거나, 클 때 학습이 제
투빅스 16기 이승주Contents1\. Starting Research2\. Review of Gated Neural Sequence Models3\. MT Topics4\. Research Evaluation, others5\. ReferencesSQuAD ques
작성자: 16기 주지훈Machine TranslationSequence to sequenceAttentionMachine Translation이란 특정 언어의 문장을 다른 언어의 문장으로 번역하는 것을 말합니다. 이때 input(x)으로 들어간 언어의 문장을 sourc
작성자: 14기 박지은이번 주제를 살펴보기에 앞서, 언어학 용어를 몇 가지 짚고 넘어가겠습니다.Phonetics (음성학): 사람의 말소리를 과학적으로 연구하는 학문으로 말소리의 물리적인 발성과 인지를 연구Phonology (음운론): 특정 개별 언어 또는 여러 언어의
작성자: 성균관대학교 사회학과 박지은시작하기 전에 자연어 생성이 무엇인지부터 살펴보겠습니다. 자연어 생성은 이름 그대로 주어진 input X가 주어졌을 때, 이를 토대로 새로운 텍스트를 생성하는 작업을 말합니다. 기계 번역, 요약, 대화, 이미지 캡셔닝 등을 예로 들
작성자: 15기 김현지Contents1\. Constitency Parsing2\. Simple Tree RNN3\. Syntactically-United RNN4\. Matrix-Vector RNN5\. Recursive Neural Tensor Network6\.
작성자 UNIST 산업공학과 김건우Unit 01. IntroductionUnit 02. Transformers and Self-AttentionUnit 03. Image Transformer and Local Self-AttentionUnit 04. Music Tran
작성자 : 투빅스 16기 이승주 > Contents Reflections on word representations Pre-ELMo and ELMO ULMFit and onward Transformer architectures BERT Reflections on wo