Linear Regression이 L2 norm
과 관련 있단다.
Lasso, Ridge에서 Lasso는 왜 어떤 feature의 기울기를 0으로 만들까...?
왜 coeifficient를 0으로 만들 수 있는가
의 포인트는model = keras.Sequential([
keras.layers.Flatten(input_shape=(28, 28)),
keras.layers.Dense(128, activation='relu'),
# 여기에 dropout layer를 추가해보았습니다. 나머지 layer는 아래의 실습과 같습니다.
keras.layers.Dropout(0.9),
keras.layers.Dense(10, activation='softmax')
])
Flatten()
이 없는데, (60000, 28, 28)
데이터를 인풋으로 넣으면(32, 28, 28)
가 되고아... 오늘은 코딩테스트 준비용으로 갖는 알고리즘 연습 시간에 4문제 중 1개 밖에 못 풀었다.......
Dropout, Batch Normalization 관련해서는 실제로 어떤 수식을 갖고 작동하는지 더 찾아봐야 하는데, 알고리즘 푸느라 오늘 오후가 거의 다 가버렸다....