NLP

1.나만의 언어모델 만들기 - 개요

post-thumbnail

2.나만의 언어모델 만들기 - Wordpiece Tokenizer 만들기

post-thumbnail

3.나만의 언어모델 만들기 - BERT Pretrained Language Model (Masked Language Model) 만들기

post-thumbnail

4.나만의 언어모델 만들기 - GPT-2 (Autoregressive Language Model) 만들기

post-thumbnail

5.나만의 언어모델 만들기 - korquad 1.0 제출하기

post-thumbnail

6.심리상담 챗봇 만들기 - React Native를 이용한 챗봇 앱 만들기

post-thumbnail

8.Reformer, The Efficient Transformer

post-thumbnail

9.Reformer: LSH Attention

post-thumbnail

10.Reformer: Reversible Transformer

post-thumbnail

11.Reformer: Chunking

post-thumbnail

12.GPT-3: 들어가기 전에

post-thumbnail

13.GPT-3: 사전학습과 파인튜닝 패러다임을 넘어서

post-thumbnail

14.GPT-3: GPT-3가 보이고 싶은 것

post-thumbnail

15.GPT-3: 모델

post-thumbnail

16.HuggingFace generate 함수 사용해서 문장 생성하기

post-thumbnail

17.트랜스포머 기반 자연어처리 모델 간략하게 훑어보기

post-thumbnail

18.GPT-2 문장 생성 시, 왜 중복이 발생할까

post-thumbnail

19.Top-p Sampling (aka. Nucleus Sampling)

post-thumbnail

20.Beam Search in NLP

post-thumbnail

21.데이터전처리 - 영어 위키피디아 덤프 텍스트 데이터 얻기

post-thumbnail

22.데이터전처리 - 나무위키 덤프 텍스트 데이터 얻기

post-thumbnail

23.Hopfield Network is all you need 살펴보기

post-thumbnail

24.Transformer로 한국어-영어 기계번역 모델 만들기

post-thumbnail

25.Performer - RETHINKING ATTENTION WITH PERFORMERS

post-thumbnail

26.Gradient Accumulation, 큰 모델 학습시 어떻게 배치 사이즈를 늘릴수 있을까?

post-thumbnail

27.Nvidia Apex를 이용한 모델 학습 최적화

post-thumbnail

28.사람처럼 대화하는 오픈-도메인 챗봇을 향해, Google Meena

post-thumbnail

29.10배 더 크고 10배 더 빠른 딥러닝 모델 학습, DeepSpeed

post-thumbnail

30.BlenderBot 2.0: 장기 기억 메모리와 인터넷 검색을 활용한 오픈소스 챗봇

post-thumbnail

31.BigBird, Block Sparse Attention

post-thumbnail

32.ReZero is All You Need, 뉴럴네트워크를 더 깊고 빠르게 학습하는 방법

post-thumbnail

33.Perceiver IO: A General Architecture for Structured Inputs & Outputs

post-thumbnail

34.Decision Transformer: Reinforcement Learning via Sequence Modeling

post-thumbnail

35.Billion 단위의 언어모델을 학습시키기 위한 방법: Megatron-LM

post-thumbnail

36.Pytorch wandb (Weight & Biases) 적용

post-thumbnail

37.DeepSpeed Pipeline Parallelism

post-thumbnail

38.WebGPT: Browser-assisted question-answering with human feedback

post-thumbnail

39.Faiss 시작하기

post-thumbnail

40.RETRO: Improving language models by retrieving from trillions of tokens

post-thumbnail

41.UL2, Unifying Language Learning Paradigms

post-thumbnail

42.What Language Model to Train if You Have One Million GPU Hours?

post-thumbnail

43.ALiBi Postion Embedding

post-thumbnail

44.AlexaTM 20B: Few-Shot Learning Using a Large-Scale Multilingual Seq2seq Model

post-thumbnail

45.Deepmind Sparraw: Improving alignment of dialogue agents via targeted human judgements

post-thumbnail