① model.add(keras.layers.Dense)
② model.add(keras.layers.Dense(10, actibation='relu'))
③ model.add(keras.layers.Dense, 10, activation='relu')
④ model.add(keras.layers.Dense)(10, activation='relu')
① Plate
② Flatten
③ Normalize
④ Dense
① linear
② sigmoid
③ relu
④ tanh
① SGD
② Adagrad
③ RMSprop
④ Adam
<풀이>
①은 층의 클래스를 전달하고 있고, ③은 Dense 클래스의 매개변수를 add() 메서드에 전달한다. ④는 add() 메서드에서 반환하는 값이 없기 때문에 함수 호출 오류가 발생
① Plate, ③ Normalize 클래스는 없음.
④ Dense 층은 신경망에서 가장 기본적인 밀집층. 입력의 차원을 변형하여 계산하지 않는다.
① 'linear'는 선형 활성화 함수라고 부르며 실제로는 활성화 함수를 적용하지 않는다는 뜻이다. 즉 뉴런의 선형 계산을 그대로 다음 층에 전달함. 일반적으로 'linear'는 회귀 작업을 위한 신경망의 출력층에 사용한다.
② 'sigmoid'는 로지스틱 함수 또는 시그모이드 함수를 나타낸다. 이 활성화 함수는 초창기 신경망에 많이 사용되었다.
④ 'tanh'는 하이퍼볼릭 탄젠트 함수를 나타낸다. 순환 신경망에서 자주 사용됨.
② Adagrad, ③ RMSprop, ④ Adam 모두 적응적 학습률 옵티마이저이다.