너무 높은(큰) Learning rate는 overshooting을 초래한다.
learning rate를 조절하는 기법임. 여기엔 3가지 방법이 있음
[code]
learning rate = tf.train.exponential_decay(starter_learning_rate, global_step, 1000, 0.96, staircase)
tf.train.exponential_dacay / tf.train_inverse.time_decay
tf.tain_natural_exp_decay / tf.train.piecewise_constant
tf.train.polynomial_decay
= Feature Scaling
: 데이터의 값의 범위를 일정한 수준으로 맞추는 작업.
학습하는 데이터에만 최적화된, 새로운 데이터가 입력되었을 때 올바르게 학습하지 못하는 현상.
해결방법
커피(=변화량)를 물(=데이터)에 타는 상황을 가정했을 때, 물의 양을 더 많이 할 수록, 커피가 희석되는 것처럼
more data will helps to fix hugh variance.
데이터의 변량이 보다 밀집해 있는 데이터를 입력하거나, 데이터의 범위를 보다 의미있는 범위에 밀집하도록 함으로써, 모델이 학습을 좀 더 잘 할 수 있게 해줌.
1,2와 반대되는 방법으로, 모델이 너무 간단할 때, 학습의 의미가 없으므로 모델을 좀더 구체적으로 변형하는 방법.
hypothesis is too simple, make hypothesis more specefic (fixes hugh bias)