Tktor.log
로그인
Tktor.log
로그인
Transfer learning
코린이 주니어 개발자!!!
·
2023년 9월 11일
팔로우
0
DL
NLP
0
AI(인공지능)
목록 보기
1/5
Transfer Learning 이란?
특정 태스크(Task)를 학습한 모델을 다른 태스크 수행에 재사용하는 기법입니다.
트랜스퍼 러닝을 적용하면 기존보다 모델의 학습 속도가 빨라지고 새로운 태스크를 더 잘 수행하는 경향이 있습니다.(Bert / GPT 등등)
아래와 같이 태스크2를 수행하는 모델을 만든다고 가정한다면 모델이 태스크2를 배울 때 태스크1을 수행해본 경험을 재활용할 수 있습니다.
위의 그림에서 태스크 1을 업스트림 태스크(Upstream task) 라고 하고 태스크 2를 다운스트림 태스크(Downstream task) 라고 합니다.
Upstream Task
Pretrain : 업스트림 태스크를 학습하는 과정
다음 단어 맞히기로 Pretrain 수행 : GPT 계열의 모델(Language Model)
빈칸 채우기로 Pretrain 수행 : Bert 계열의 모델(Masked Language Model)
Downstream Task
Pretrain을 마친 모델을 구조의 변경 없이 그대로 사용하여 자연어 처리의 구체적인 과제들을 수행
분류 : 자연어를 입력받아서 해당 입력이 어떤 범주에 해당하는지 확률 형태로 반환
Finetuning : Pretrain을 마친 모델을 Downstream Task 에 맞게 업데이트하는 기법
코린이 주니어 개발자!!!
코드 작성 시에 한 글자, 한 글자에 '왜' 를 붙여가며 생각하는 개발자가 되도록 노력중!!
팔로우
다음 포스트
Tokenization
0개의 댓글
댓글 작성