post-thumbnail

[TAPT, DAPT] - Don't Stop Pretraining. Adapt Language Models to Domains and Tasks.

BERT와 GPT 이후에 수많은 사전학습 모델이 쏟아져 나왔다. 제각기 다른 데이터셋과 다른 목적함수, 모델 구조를 가지고 학습이 되었지만 한가지 동일한 것이 있었다. Pretrain -> Finetune으로 이어지는 프레임워크였다. 이는 사전학습 시에 가능한 대량의

2022년 4월 2일
·
0개의 댓글
post-thumbnail

[GPT-2] Language Models are Unsupervised Multitask Learners

GPT-1의 마지막 파트를 살펴보면 pretrain된 모델이 downstream task에 대해 학습되지 않은 상태에서 각 태스크에 대해 어느 정도의 성능을 보이는지 측정한 파트가 있다. 매우 단순하게 pretrain이 실제로 다양한 downstream task를 수행

2022년 3월 22일
·
0개의 댓글
post-thumbnail

[GPT-1] Improving Language Understanding by Generative Pre-Training

최근 몇년간 NLP를 휩쓴 모델 두 가지만 이야기해보라고 하면 단연 GPT 시리즈와 BERT를 꼽을 것이다. BERT는 특유의 NLU 친화적인 모델구조로 인해 다양한 태스크에 쉽게 적용될 수 있어 무척 많은 연구들이 쏟아져 나왔다. 이에 비해 GPT의 경우 OpenAI

2022년 3월 15일
·
0개의 댓글
post-thumbnail

Contextual Embedding - How Contextual are Contextualized Word Representations?

오늘 살펴볼 논문은 How Contextual are Contextualized Word Representations? Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings 라는 논문이다. 이름이 무척 긴데, 사실 이

2022년 2월 26일
·
0개의 댓글
post-thumbnail

Pointer - Generator

이번에 다뤄볼 논문은 pointer generator라고 불리는 논문이다. arxiv 게재 기준으로 2017년에 나온 꽤 오래된 논문이지만(2017년 논문을 오래됐다고 할 때마다 이게 맞나 싶다...) summarization 분야나 연구실에서 하고 싶은 DST(Dia

2022년 2월 9일
·
0개의 댓글
post-thumbnail

Word2Vec

오늘 다뤄볼 논문은 이제는 거의 고전 수준이 되어버린(사실 그렇게 엄청 오래된 논문은 아니지만 이 바닥에선 고전이라고 할 수 있을 것 같다.) word2vec이다. 방법론 자체가 지금의 기준으로 엄청 참신하다거나 너무 새로워서 모든 related work를 살펴봐야 할

2022년 1월 20일
·
2개의 댓글

향후 작성 예정 게시물

향후 작성하고자 하는 게시물을 까먹지 않기 위해 적어놓는다. 1-1. longformer1-2. bart 2-1. bias variance trade off 수식 및 파라미터 수와 데이터 수의 관계

2022년 1월 14일
·
0개의 댓글
post-thumbnail

Self-Supervised Learning

처음 기계학습을 공부할 때를 생각해보면 세상엔 두가지 종류로 나눌 수 있다고 배운다. 지도학습 (supervised learning)비지도 학습 (unsupervised learning)여기서 지도학습은 레이블이 존재하는 특정 태스크에 대해 수행하는 학습이고, 비지도학

2021년 11월 23일
·
0개의 댓글
post-thumbnail

Style Gan & GauGan

2018년까지 GAN이 가진 근본적인 문제는 불안정한 학습과 긴 학습 시간이었다. 이 두 문제는 GAN이 고해상도의 이미지를 생성하는 것을 힘들게 만들었다. 128\*128 짜리 이미지를 만드는 모델 학습에도 긴 시간이 소요되고, 학습 안정화를 위해 이것저것 신경써야

2021년 11월 9일
·
0개의 댓글
post-thumbnail

Linear Transformer

투빅스 컨퍼런스 주제로 무려 pretrain 모델 만들기를 선정했다... 아직도 이게 맞나 싶긴 하지만 gpu 충분하고 다들 충분히 모델이나 관련 지식이 충분하니까 학부생으로서 할 수 있는 가장 좋은 프로젝트가 될 수 있지 않을까 싶다. 모델의 컨셉은 긴 시퀀스를 입력

2021년 11월 5일
·
0개의 댓글
post-thumbnail

KL Divergence & JS Divergence & Mutual Information

딥러닝은 범함수라는 이야기를 많이한다. SGD 등의 최적화를 통해서 우리가 원하지만 특정할 수 없는 어떠한 함수든 몇가지 조건만 만족하면 추정할 수 있다는 뜻이다. 이에 대해 여러가지 논문도 나온 것으로 알고, 이를 기반으로 지금까지 딥러닝이 그나마 수학적 배경을 갖추

2021년 11월 1일
·
0개의 댓글
post-thumbnail

GAN & DCGAN

투빅스에서 두번째 심화 세미나로 생성모델을 하게 되었다. 지난 컨퍼런스 때 생성모델을 다뤘던 것이 개인적으로 재밌기도 했고, 무엇보다 생성모델이 데이터를 생성하는 분야 뿐만 아니라 텍스트에서 self supvervised learning과 연관이 있는 것 같아 배워두고

2021년 10월 25일
·
0개의 댓글
post-thumbnail

[CS224W] Lecture 11 - Reasoning over Knowledge Graph

이번엔 지난 시간에 다룬 지식 그래프를 이용해 새로운 지식을 얻어내는 방법을 알아보도록 하자. 이전에 배운 KG completion task는 head와 relation이 주어졌을 때, 현재 그래프에 연결되어 있지만, 연결될 가능성이 높은 tail을 예측하는 태스크였다

2021년 9월 28일
·
1개의 댓글
post-thumbnail

[CS224W] Lecture 10 - Heterogeneous Graphs and Knowledge Graph Embeddings

이전까지 우리가 다뤄왔던 그래프는 모두 한 종류의 엣지와 노드를 가진 그래프였다. 하지만 다양한 종류의 엣지와 노드를 가진 그래프가 존재한다. 이번엔 이러한 그래프를 다루는 방법에 대해 배워보도록 하자. 우선 heterogenous graphs에 대해 정의해보자.

2021년 9월 23일
·
0개의 댓글
post-thumbnail

[CS224W] Lecture 9 - Theory of Graph Neural Networks

이번엔 지금까지 배웠던 다양한 GNN 모델에 대해 한번 다시 생각해보는 시간을 갖도록 하자. GNN의 핵심적인 아이디어는 결국 이웃 노드의 정보를 이용해 노드 임베딩을 생성하는 것이다. 이때 1) 이웃노드의 정보를 모으고 2) 모아진 정보를 가공하여 각 레이어에서의 노

2021년 9월 21일
·
2개의 댓글
post-thumbnail

10. 부등식 제약 조건(KKT) & 쌍대성

앞서 등식 제약조건에서 어떻게 라그랑주 승수를 이용해 라그랑지안을 정의하는지 살펴보았다. 그렇다면 부등식 제약조건에서는 어떻게 최적해를 구할 수 있을까?우선 다음과 같은 부등식 제약 조건이 있다고 생각해보자. $$minimize\_{\\textbf{x}} f(\\tex

2021년 9월 18일
·
0개의 댓글
post-thumbnail

9. 등식 제약조건

지금까지는 주어진 목적함수에 대해 최소화하는 다양한 방법들을 살펴보았다. 하지만 실제로는 단순히 목적함수만 주어지지 않는다. 선형회귀에서도 랏소나 릿지와 같이 가중치들에 대한 제약식이 주어진다. 이렇게 제약식이 주어졌을 때, 어떻게 문제를 해결할 수 있는지 알아보자.

2021년 9월 17일
·
0개의 댓글
post-thumbnail

8. 2계 도함수법(뉴턴법 등)

1계 도함수법은 그래디언트를 이용해 목적함수의 1차 근사를 하는 최적화 방법이다. 이에 비해 2계 도함수법은 헤시안 등을 사용해 2차 근사를 이용한다. 1계 도함수법에 비해 많은 정보를 활용하기 때문에, 더욱 정확한 근사를 기대할 수 있을 것이다. 그래디언트는 최적해로

2021년 9월 16일
·
0개의 댓글
post-thumbnail

7. 1계 도함수법(GD ~ Adam)

1계 도함수법은 현재 위치에서의 기울기를 이용해 최적해를 찾는다. 이때 반복적인 작업을 통해 최적해를 찾아나가게 된다. 이번에 다룰 내용은 기본적인 그래디언트 디센트부터 딥러닝 옵티마이저로 자주쓰이는 Adam 등, 매우 자주 접하게 되는 최적화기법들이다. 이전에도 다룬

2021년 9월 15일
·
0개의 댓글

18. 특이값 분해(SVD)

수반연산자를 임의의 선형변환 $T : V \\to W$로 확장해서 생각해보자. 이때, 수반사상 $T^$는 $W$에서 $V$로의 선형변환이고, $\[T^]\\beta^\\gamma = (T^\\gamma\\beta)^$일 것이다. 재밌는 점은 $V$의 선형연산자 $T^T

2021년 9월 14일
·
0개의 댓글