h는 단기 상태(Short-Term state), c는 장기 상태(Long-Term state)
(X_train, y_train), (X_test, y_test) = reuters.load_data(num_words=1500)
# oov_char = 2 : 빈도가 낮은 단어(num_words=1500개 이하)가 2로 마스킹
model3 = Sequential() # 뼈대 생성
model3.add(Embedding(1500, 50)) # 임베딩을 진행할 단어의 수, 각 단어를 표현할 숫자의 수
# embedding layer : 단어사전, 0~1500개의 단어, 가로로는 50개
model3.add(LSTM(128, return_sequences=True))
model3.add(LSTM(128))
model3.add(Dense(32, activation='relu'))
model3.add(Dense(46, activation='softmax'))
: Transfer Learning이란? 이를 딥러닝의 분야에서는 '이미지 분류' 문제를 해결하는데 사용했던 네트워크(DNN;Deep Neural Network)를 다른 데이터셋 혹은 다른 문제(task)에 적용시켜 푸는 것을 의미