많은 현재 NLP 시스템이 단어를 ‘원자 단위 (Atomic Units)’로 취급한다. 해당 취급 과정은 단어 간의 유사성 개념이 없고 어휘를 그저 인덱스로 표현할 뿐이다. → 그냥 의미가 따로 없는 단어들을 인덱싱 하는 것이 방식은 단어 간 유사성 (Similarit

RNN, LSTM, 특히 GRU, LSTM은 언어모델링이나 기계 번역과 같은 시퀸스 처리 (Sequence modeling) 문제에서 ‘최고 수준(state-of-the-art)’ 기술로 자리 잡았었다. 📌 RNN은 문장처럼 순서가 있는 데이터를 처리하는 데 특화된

` ImageNet Classification with Deep Convolutional Neural Networks (2012) ` 논문을 읽고. . 이 논문에서는 AlexNet이라는 이름이 직접적으로 등장하지는 않지만, 이 논문이 말하고자 하는 모델이 AlexNe

이런 식으로 사진이 지직 거리는 느낌의 이미지를 본 적 있을 것이다. 이런 잡음을 가우시안 노이즈라고 한다. 이름처럼 가우스 함수에 따른 분포를 따르고 있기 때문에 가우시안 노이즈라고 이름이 붙여졌다. 가우시안 노이즈는 보통 이미지의 압축, 전송 등의 과정에서 발

이번에는 ViT를 PyTorch로 구현해보고자 한다.2021년 이후 Computer Vision의 Foundation Model로 빼먹을 수 없는 ViT.. 간단한 Image Classification Dataset을 사용하여 Image Classification을 위