방법론이라고 표현하는게 맞는지 모르겠지만, 객체탐지논문은 따로 다룰거기때문에 다음처럼 구성하였다. 순차적으로 논문 공부하고 리뷰 해볼 예정개념과 코드를 같이 업로드하면서 할 예정이지만, 그러면 너무 시간이 오래걸릴거같아서개념을 다 이해하고 정리한뒤, 코드를 순차적으로
docker run \[Options...] \[Image] \[command] \[매개변수]\-d detached mode
AlexNet은 2012년에 개최된 ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 대회의 우승을 차지한 컨볼루션 신경망(CNN) 구조이다. CNN의 부흥에 아주 큰 역할을 한 구조라고 말할 수 있다. https&
논문명 :2015 CVPR에 개제된 "Going Deeper with Convolutions"GoogLeNet2014년 이미지넷 이미지 인식 대회(ILSVRC)에서 VGG19을 이기고 우승을 차지한 알고리즘19층의 VGG19보다 좀 더 깊은 22층으로 구성되어 있음Go
ㅎㅏ...ResNet 정리하다가 실수로 날라갔다...논문명 :마이크로소프트에서 개발한 "Deep Residual Learning for Image Recognition"층수에 있어서 ResNet은 급속도로 깊어진다. 2014년의 GoogLeNet이 22개 층으로 구성된
논문명 : 2017 CVPR - "Densely Connected Convolutional Networks"DenseNet 핵심 아이디어Feed Forward 시 각 layer를 다른 모든 layer 들과 연결해당 방법론의 4가지의 장점vanishing-gradient
논문명 : 2016 - SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size논문 이름 그대로 AlexNet보다 50배 적은 파라미터 수로 AlexNet과 동일한 정확도를
논문명 : 2016 - SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size1) 3x3 Filter 를 1x1 Filter로 대체1x1 Convolution을 사용함으로
ShuffleNetMobileNet의 발전된 형태를 지님 (모델 경량화 목적!)MobileNet의 구조를 기본적으로 사용 1x1 convolution이 거의 모든 연산량과 파라미터를 차지하는데, 이 연산량을 더 줄이기 위해서 1x1 convolution을 더 줄이려는
(a) 입력이 들어오면 채널을 그룹별로 나누며, 나누어진 그룹마다 Convolution을 진행나누어진 그룹에 해당하는것만 학습하게 됨. (독립적인 느낌)(b,c) 모든 채널에 대해 학습이 되기 위해 동일하게 사용되게끔 섞어줌Grouped Convolution Chann
논문명 : 2019 ICML - EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks모델의 성능을 최적으로 끌어올리는 깊이/너비/해상도 조합을 찾은 논문이다.Compound Scalinghtt
논문명 : 2021 ICLR - An Image is Worth 16x16 Words: Transformers for Image Recognition at ScalePatch Embedding
논문명 : 2021 - MLP-Mixer: An all-MLP Architecture for VisionViT와 동일하게 Google Research에서 발표한 논문으로, ViT가 Self Attention만으로 성능을 높일 수 있었다면 MLP만으로도 성능을 높일 수
내용이 어렵네.. 토요일날 강의영상보고 정리하자.https://www.youtube.com/watch?time_continue=1321&v=6OjRipMGWx8&feature=emb_logohttps://visionhong.tistory.com/27