
자연어 처리 모델
https://www.youtube.com/watch?v=fTQRplbzI1o&t=89s



(gpt는 100% mask, bert는 20% 무작위 또는 원래 단어로 문장 전체 활용)

CLS NSP

https://production-media.paperswithcode.com/methods/new_BERT_Overall.jpg
BERT는 GPT2와 다르게 task specific 하게 fine tuning을 해주어야 함.
question -> source text
paragraph -> target language
4가지 시나리오에 맞춰 bert를 fine-tuning

bert의 입력토큰


출처: https://tmaxai.github.io/post/BERT/
출처 https://www.youtube.com/watch?v=dI1AiK_uN9Q

적용 사례

GAN: Generative Adversarial Networks (꼼꼼한 딥러닝 논문 리뷰와 코드 실습) - 동빈나
https://www.youtube.com/watch?v=AVvlDmhHgC4

MNIST 실습 코드 참고
https://github.com/ndb796/Deep-Learning-Paper-Review-and-Practice/blob/master/code_practices/GAN_for_MNIST_Tutorial.ipynb