kim_haesol.log
로그인
kim_haesol.log
로그인
Transformer
해소리
·
2022년 7월 24일
팔로우
0
GPT
데이터
문과생
제로베이스
0
GPT
목록 보기
2/2
Transformer란?
입력 방법이 병렬처리가 되어 있다 => 성능을 높일 수 있다.
성능 향상하는 방법
skip connection
layer nomalization
특징
기계번역 task에서 기존의 연구들보다 성능적으로 우수
병렬적으로 처리가 가능한 모델 -> time complexity 감소
이후에 사용되는 bert, gpt 모델에서 일반화에 강점이 있다는 것이 확인
positional encoding
해소리
문과생 데이터사이언티스트되기 프로젝트
팔로우
이전 포스트
GPT 기초 설명
0개의 댓글
댓글 작성
관련 채용 정보