# Attention
총 2개의 포스트

[CS224n] Lecture 8 - Machine Translation, Sequence-to-sequence and Attention
작성자 : 투빅스 14기 고경태 > Contents Machine Translation Sequence to sequence Neural technique: Attention 목차의 흐름은 전 목차 주제에서의 한계점을 극복하고 발전하는 방향으로 진행됩니다. 즉, 기계
2020년 12월 31일
·
0개의 댓글CBAM: Convolutional Block Attention Module
필자들은 Convolution Block Attention Module (CBAM)을 제안한다.최근의 CNN 성능 향상을 위한 architecture 연구는 크게 3 가지 측면에서 이뤄지고 있다.depthwidthcardinalitydepth와 width의 경우 Res
2020년 6월 30일
·
0개의 댓글