# Attention

2개의 포스트
post-thumbnail

[CS224n] Lecture 8 - Machine Translation, Sequence-to-sequence and Attention

작성자 : 투빅스 14기 고경태 > Contents Machine Translation Sequence to sequence Neural technique: Attention 목차의 흐름은 전 목차 주제에서의 한계점을 극복하고 발전하는 방향으로 진행됩니다. 즉, 기계

2020년 12월 31일
·
0개의 댓글

CBAM: Convolutional Block Attention Module

필자들은 Convolution Block Attention Module (CBAM)을 제안한다.최근의 CNN 성능 향상을 위한 architecture 연구는 크게 3 가지 측면에서 이뤄지고 있다.depthwidthcardinalitydepth와 width의 경우 Res

2020년 6월 30일
·
0개의 댓글