학습목표
- 딥러닝의 역사
- 2012년부터 2020년까지의 패러다임
1. AlexNet
이미지
가 들어왔을 때, 분류
하는 것이 목표, 이후 머신러닝의 판이 바뀜
2. DQN
알파고
를 만든 알고리즘을 만든 회사 딥마인드 → 구글 인수 (구글 딥마인드)
- 아래는
큐러닝
의 방법론을 이용해서 딥러닝에 접목해서 만든 게임
3. Encoder / Decoder
구글번역
에 활용되는 방법론, 단어의 연속이 주어졌을 때 이를 잘 표현해서 다음 언어를 뱉어주는 것
- 단어의 시퀀스가 주어지면, 어떤 벡터에 인코딩하고, 다른 언어의 시퀀스를 만들어 주는 것
- 기계어 번역의 트렌드가 많이 바뀜
4. Adam Optimizer
딥러닝을 학습
시킬 때, 아담을 그냥 사용 → 그 이유는 아담이 결과가 매우 잘 나옴
5. GAN
이미지
와 텍스트
를 어떻게 만들어낼지?
6. Residual Networks
딥러닝의 딥러닝
이 가능해짐, 네트워크를 깊게
쌓았기 때문이라는 말이 있음
- 이 전에는 네트워크를 너무 깊게 쌓으면, 테스트를 했을 때 성능이 잘 안나온다는 이야기가 있었지만 Residual이 나오고 트렌드가 바뀜
- Attention is all you need (‘너가 필요한 것은
Attention
밖에 없다.’)
8. BERT
NLP
는 Language 모델
을 학습
- Language 모델은 다음 단어가 무엇이 나올지 맞추는 것 → 문장생성 → 프로그램 생성 → 글 작성
- 날씨를 예측하고, 좋은 뉴스기사를 만드는 네트워크를 만들고 싶지만, 뉴스데이터가 필요함. 하지만 찾기 어렵기 때문에 다양한 단어, 말뭉치를 이용해
fine-tuning
9. BIG Language Models
- BERT의 끝판왕,
약간의 fine-tuning
으로 문장, 프로그램, 표, 시퀀스 모델들을 만들 수 있음
175억 개의 파라미터
로 이루어져 있음
10. Self Supervised Learning (SimCLR)
- 이미지 분류와 같은 분류문제를 풀 때, 학습 데이터는 한정적일 수 있는데, 이런 데이터가 주어졌을 때, model과 loss function을 바꿔가며 여러 좋은 결과를 내는 것이 일반론
- 여기서는 학습 데이터 외, 라벨을 모르는
Unsuperviser 데이터
를 활용
→ 라벨을 모르지만, 구글 내 이미지들을 학습에 같이 활용
→ 어떻게 하면 이미지를 컴퓨터가 잘 이해할 수 있는 벡터로 바꿀 수 있을지, 결과론적으로 좋은 학습함으로써 진짜 풀고자하는 분류문제를 풀고자 하는 것이 논문의 흐름
- 주어진 학습 데이터 외, 데이터를 추가로 활용해서 결과를 얻는 것이 목적
- 학습 데이터를 도메인 지식을 통해 추가로 만들어 내, 학습 데이터를 증폭시켜 학습