혼자 공부하는 머신러닝 + 딥러닝 07-2 확인 문제

손지호·2023년 8월 20일
0

1. 다음 중 모델의 add() 메서드 사용법이 올바른 것은 어떤 것인가요?

① model.add(keras.layers.Dense)
② model.add(keras.layers.Dense(10, actibation='relu'))
③ model.add(keras.layers.Dense, 10, activation='relu')
④ model.add(keras.layers.Dense)(10, activation='relu')

2. 크기가 300 x 300인 이벽을 케라스 층으로 펼치려고 한다. 다음 중 어떤 층을 사용해야 하나요?

① Plate
② Flatten
③ Normalize
④ Dense

3. 다음 중에서 이미지 분류를 위한 심층 신경망에 널리 사용되는 케라스의 활성화 함수는 무엇인가요?

① linear
② sigmoid
③ relu
④ tanh

4. 다음 중 적응적 학습률을 사용하지 않는 옵티마이저는 무엇인가요?

① SGD
② Adagrad
③ RMSprop
④ Adam













<풀이>

1. 답 ② 모델의 add() 메서드에는 층의 객체를 전달해야 한다.

①은 층의 클래스를 전달하고 있고, ③은 Dense 클래스의 매개변수를 add() 메서드에 전달한다. ④는 add() 메서드에서 반환하는 값이 없기 때문에 함수 호출 오류가 발생

2. 답 ② 배치 차원을 제외한 입력의 차원을 일렬로 펼치려면 Flatten 클래스 사용한다.

① Plate, ③ Normalize 클래스는 없음.
④ Dense 층은 신경망에서 가장 기본적인 밀집층. 입력의 차원을 변형하여 계산하지 않는다.

3. 답 ③ 'relu'는 이미지 처리 작업에 널리 사용되는 렐루 활성화 함수이다.

① 'linear'는 선형 활성화 함수라고 부르며 실제로는 활성화 함수를 적용하지 않는다는 뜻이다. 즉 뉴런의 선형 계산을 그대로 다음 층에 전달함. 일반적으로 'linear'는 회귀 작업을 위한 신경망의 출력층에 사용한다.
② 'sigmoid'는 로지스틱 함수 또는 시그모이드 함수를 나타낸다. 이 활성화 함수는 초창기 신경망에 많이 사용되었다.
④ 'tanh'는 하이퍼볼릭 탄젠트 함수를 나타낸다. 순환 신경망에서 자주 사용됨.

4. 답 ① SGD는 기본 경사 하강법과 모머=ㅔㄴ텀, 네스테로프 모멘텀 알고리즘을 구현할 클래스이다. 이런 알고리즘들은 모두 일정한 학습률을 사용한다.

② Adagrad, ③ RMSprop, ④ Adam 모두 적응적 학습률 옵티마이저이다.

profile
초보 중의 초보. 열심히 하고자 하는 햄스터!

0개의 댓글