머신러닝은 인간의 feature extraction 과정을 거쳐서 classfication을 하지만, Deep Learning은 gradient decent을 통해서 feature extraction을 하고 classification을 수행한다.
Classificaiton
CNN architures for image classtification
+ LeNet-5: 1998년 Yann LeCun이 제안한 아주 간단한 CNN
+ Conv - Pool - Conv - Pool - FC - FC
+ Convolution: 5 5 filters with stride 1
+ Pooling: 2 2 max pooling with stride 2
+ AlexNet: LeNet-5이랑 아주 비슷.
+ 7 hidden layers, 605k neurons, 50 million parameters
+ ImageNet으로 Trained
+ RELU와 dropout 적용
+ Conv - Pool - LRN - Conv - Pool - LRN - Conv - Conv -Conv - Pool - FC - FC - FC
+ LRN => deprecated
+ 11 11 covolution filter
+ VGGNet
+ 더 깊고 간단한 구조, LRN 없음
+ 3 3 Conv filter, 2 2 max pooling
+ 더 나은 성능. 더 나은 일반화(generalization)
+ Input: 224 224 RGB images
: 직접 구현한 VGGnet11과 pretrained한 VGG11모델을 finetuning.
for (name, module) in model_finetune.named_children():
if name == 'features':
for layer in module.children():
for param in layer.parameters():
param.requires_grad = False
: 모델 conv layer 얼리기