CV & Class activation map 인 Grad CAM과 CAM 에 대해 리뷰 & 정리해보았습니다. Andrew Ng 교수님이 알려주신 논문 리뷰 방식대로 진행하였습니다.
CV & CNN의 기초적인 모델, 알렉스넷 논문을 읽고 리뷰 & 정리해보았습니다.
이번에는 RCNN 논문리뷰를 진행해보았습니다. (Regions with Convolutional Neuron Networks features) - 차후 코드 업로드 진행예정입니다.
RCNN의 개선 버전인 Fast-RCNN에 대해 알아보자 !
RCNN 모델 시리즈의 마지막 논문- Faster-RCNN 에 대하여 리뷰를 해보았습니다 !
Grad-CAM과 CAM의 문제점을 해결한 Grad-CAM++에 대해 논문 리뷰를 진행하였습니다 !
weakly supervised instance를 적용한 논문 리뷰를 진행하였습니다 !
RCNN 시리즈의 최종 - MaskRCNN 논문리뷰를 진행해보았습니다! 다양한 알고리즘이 사용된 만큼 높은 이해도를 요구하는 것같아요!
Object Detection의 메인 모델이라고 할 수 있는 Yolo 시리즈의 첫 시작, Yolo v1 논문을 리뷰해보자 !
CAM 시리즈를 weakly supervised 에 적용시킨다면 어떻게 활용할 수 있을까요?
Grad-CAM 을 WSOD에 넣은 방식은 어떤 효과가 있었을까요? 논문을 통해 방법론을 리뷰해봅시다 !
objectdetection 편의 좋은 성능을 가진 efficientdet의 아키텍처와 구조에 대해 리뷰해보았습니다.
CNN 네트워크를 지나 새로운 네트워크인 transformer&Attention에 대한 논문리뷰를 해보았습니다.
DEtection TRansformer의 DETR 논문을 리뷰해보았습니다.
본 논문은 NLP 에서만 적용되었던 Transformer 가 Computer Vision 분야로 온전히 넘어온 내용을 담고 있다.본 논문이 등장했었을 때, Vision 분야에서는 아직 Transformer 구조가 활발하게 적용되는 단계는 아니였는데, 이 논문에서는 비전
현재 WSOL 모델에서 Acc 1등을 찍고 있는 DiPS 모델 논문을 리뷰해보았습니다.
ViT 의 object detection 분야의 뛰어난 성능을 보인 transformer backbone model 인 Swin Transformer 논문을 읽어보았습니다.
대규모 데이터셋 학습을 통해 성능을 높인 CLIP 에 대해서 간단하게 논문을 리뷰해보았습니다.
Small datasets에서도 잘 작동하는 ViT를 어떻게 모델링했는지 확인하기 위해 논문을 리뷰해보았습니다.
1.Efficient Training of Visual Transformers with Small Datasets 2. Understanding Why ViT Trains Badly on Small Datasets 두편의 논문을 읽고 공부해보았습니다.
CMT: Convolutional Neural Networks Meet Vision Transformers CNN 과 Transformer의 조합, 논문을 통해 확인해보았습니다.
Vision transformer에 self-supervised-learning 기법을 추가한 DINO papers를 확인해보았습니다.
2016년의 모델, 생성 모델을 공부할 때 확인해봐야 할 Pixel Recurrent Neural Network paper 을 공부해보았습니다.
Weakly supervised object detection 에서 vision transformer를 사용한 최신 논문을 공부해보았습니다.
generative model 의 시초인 GAN, Generative Adversarial Nets에 대해 자세히 공부해보았습니다.
GAN 과 같이 generative model 의 한종류인 Variational Autoencoder에 대해 공부해보았습니다.
grad-cam의 문제점을 해결한 또 다른 class activation map 기법인 Score-CAM 에 대해서 공부해보았습니다.
GAN 을 훈련하는데 있어 좋은 인사이트를 제시하는 Improved Techniques for Training GANs 논문에 대해 공부해보았습니다.
Vision Transformer 를 Weakly Supervised Object Localization 에 사용하는 또다른 획기적인 모델을 공부해보았습니다.
차후 다양한 모델의 성능개선에 도움이 되는 CBAM 논문을 공부해보았습니다.
기존의 Shifted Window Transformer 를 더욱 큰 모델, 고해상도의 이미지에서 더욱 안정적으로 학습하는 방식과 모델의 성능을 높이는 기술을 넣은 version2 swin transformer 에 대해 공부해보았습니다.
Vision transformer 에서도 BERT급의 SSL을 만들기 위한 MAE 논문에 대해 공부해보았습니다.
이 논문에서는 self-supervised anomaly detection에 대한 전반적인 리뷰와 현 방법론들에 대한 비교를 포괄적으로 진행하였습니다.
Domain adaptation 관련한 논문 중 중요한 기법이 담긴 이번 논문에 대해 공부해보았습니다. 차근차근 확인해보도록합니다 !
기존의 GAN 의 Mode collapsing 을 해결하기 위해 등장하여던 Wasserstein GAN 에 대해 공부해보았습니다.