# scaled dot-product

1개의 포스트

attention, scaled dot-product

Transfomer의 논문 제목 "Attention is all you need"에서 볼 수 있듯이 Transformer는 Seq2Seq with attention 모델에서 attention을 주로 사용한 모델이다.

2022년 3월 16일
·
0개의 댓글
·