# self-attention
23.2.23 meeting
channel&self-attention 자연어 처리에서 처음 등장 channel은 weight를 각각 지정 self-attention은 각 channel의 관계 간의 weight을 파악 (단어 간의 weight를 구한 matrix와 관계) attention is all you need 참고 self-attention query(질문) > key > va...

[Paper] Attention is All You Need 논문 리뷰
본 글은 Google Brain에서 2017 NIPS에 발표한 Attention is All You Need 논문에 대한 리뷰입니다. RNN 모델의 장기 의존성 문제(long-term dependency)를 극복하기 위해 제안된 Transformer는 BERT나 GPT
[졸업 프로젝트-1] Korean Receipt 문자 인식을 위한 OCR 모델 개발, 그리고 predict API 만들기
(0) 텐센트 클라우드 연결 --> OCR 모델을 개발하기 위해서 💡 중요한 것은 그냥 ssh원격 접속을 해서 저장을 하게 되면 permission없다는 에러 메세지가 뜨게 된다는 것이다. 그렇게 때문에 무조건 가상 머신의 서버 내에서 편집이나 파일 추가 등을 하기
Self-Attention Python
이번에 예측 모델을 만들면서 Transformer encoder를 수정하여 사용하게 되었다. 정리해놓은 Hugging face의 Bert code를 저장한다. Self-attention에 대한 자세한 설명은 Jay Alammar의 Transformer를 참고하면 좋다.
attention, scaled dot-product
Transfomer의 논문 제목 "Attention is all you need"에서 볼 수 있듯이 Transformer는 Seq2Seq with attention 모델에서 attention을 주로 사용한 모델이다.
[paper-review] Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Liu, Z., Lin, Y., Cao, Y., Hu, H., Wei, Y., Zhang, Z., ... & Guo, B. (2021). Swin transformer: Hierarchical vision transformer using shifted windows.

Polarized Self-Attention
Abstract Pixel-Wise Regression은 keypoint heatmap을 추출하고 semantic mask를 생성하는 등 CV task에서 흔히 수행되는 작업이지만 낮은 computational overhead를 유지함과 동시에 고해상도의 input/
[paper-review] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
An image is worth 16x16 words: Transformers for image recognition at scale

[Basic NLP] Transformer (Attention Is All You Need)
Intro지난 포스트인 Sequence-to-Sequence with Attention에서 sequence-to-sequence 모델의 경우 RNN 계열의 순환 신경망을 사용함으로 인해 입력 시퀀스가 길어질 수 록 하나의 Context Vector에 모든 정보를 담기
[paper-review] Non-local Neural Networks
Wang, X., Girshick, R., Gupta, A., & He, K. (2018). Non-local neural networks.

Transformer Network(1)
Attention Is All You Need Rnn -> LSTM -> LSTM+Attention -> Only Attention(Transformer)로 변해왔고, Sequence의 불필요성을 알게되었고, Language는 sequence라는 고정관점을 깨게되었다
[Code Review] (2018, IEEE) Self-Attentive Sequential Recommendation (SASRec)
작성자: 고유경앞선 논문 리뷰 게시물에 이어서 이번에는 SASRec을 Pytorch로 구현한 코드를 리뷰하겠습니다. 구현된 코드는 이 깃헙에서 만나보실 수 있습니다. 참고로 Tensorflow로 구현된 코드는 논문 저자의 깃헙에서 만나보실 수 있으며, 파이토치와 텐서플

[Paper Review] (2018, IEEE) Self-Attentive Sequential Recommendation (SASRec)
작성자: 이예지 Overview 해당 논문은 기존의 sequential recommender인 Markov Chains(MC)과 RNN 계열의 단점을 동시에 보완하고자 하였습니다. 이를 위해 당시 NLP task에서 sota인 Transforme
[paper-review] Self-Attention Generative Adversarial Networks
Zhang, Han, et al. "Self-attention generative adversarial networks."

[CS224n] Lecture 14 - Transformer and Self-Attention
작성자 : 투빅스 13기 정주원 > Contents RNN, CNN, and Self-Attention Transformer Image Transformer Music Transformer 1. RNN, CNN, and Self-Attention ![](htt
"Attention Is All You Need" Review
"Attention Is All You Need" 논문을 읽은 후 관련 자료를 정리한 내용을 바탕으로 논문 리뷰를 진행 해보겠습니다.