해당 강의는 미래연구소 15기에서 진행한 내용입니다 :)
https://futurelab.creatorlink.net/
the number of layers - MLP -> 1~10, CNN ~152, ~1000
the number of units - 10 ~ 1024 unit/layer
optimizer - optimizer 를 사용하기
learning rate - 0.1~0.00001
L2 coefficients
dropout rate - 0.1 ~ 0.5
batch size - 2의 거듭 제곱으로 클수록 train 속도가 빠름. overfitting 이 심한 경우 batch size를 낮추면 이를 해소할 수 있음.
eopch early - stoping
HDF5 사용
model.save('my_model.h5')
이는 load_model('my_model.h5') 로 불러올 수도 있음.