[미래연구소 15기] 10주차

깨미·2021년 3월 22일
0

DeepLearning

목록 보기
10/12
post-thumbnail

해당 강의는 미래연구소 15기에서 진행한 내용입니다 :)
https://futurelab.creatorlink.net/


Hyperparameter Tuning

1. 전반적인 방향

Model

the number of layers - MLP -> 1~10, CNN ~152, ~1000
the number of units - 10 ~ 1024 unit/layer

Optimization

optimizer - optimizer 를 사용하기
learning rate - 0.1~0.00001
L2 coefficients
dropout rate - 0.1 ~ 0.5
batch size - 2의 거듭 제곱으로 클수록 train 속도가 빠름. overfitting 이 심한 경우 batch size를 낮추면 이를 해소할 수 있음.
eopch early - stoping

Model 저장하는 방법

HDF5 사용
model.save('my_model.h5')
이는 load_model('my_model.h5') 로 불러올 수도 있음.

profile
vis ta vie

0개의 댓글