박해선 선생님의 혼자 공부하는 머신러닝+딥러닝 책을 정리해보았다.
박해선 선생님의 [혼자 공부하는 머신러닝+딥러닝] 내용 정리
앙상블과 비지도 학습
k평균과 PCA
간단한 인공 신경망 모델을 만들어보자.
인공 신경망 모델의 디테일들
파이토치 첫걸음 시작이 반이랬는데??
합성곱 신경망을 알아보자.
언어가 분해가 된다고??
LSTM GRU 솔직히 잘...?
한경훈 선생님과 함께하는 딥러닝 기초 파기
MNIST 데이터를 인공신경망으로
손실함수와 엔트로피의 정의
정말 중요한 gradient
경사하강법을 구현해보자
오차역전파에 대해서 알아보자
sigmoid, relu 함수와 softmax with loss층의 역전파를 알아보자
two_layer_net을 학습해보자 + confusion matrix까지
SGD가 가지는 문제점들을 극복하기 위한 momentum, NAG
AdaGrad, RMSProp, Adam을 알아보자.
optimizer benchmark를 해보자. 그리고 학습도 해보자.
NLP를 파이토치로 공부해보자.
챕터3
가중치의 표준편차를 알맞게 구하는 방법을 알아보자.
batch normalization을 알아보자
과적합을 방지하기 위한 Regularization, Dropout을 알아보자.
Multi Layer Net extended
필터에 대해서 알아보자.
max pooling, im2col
conv층과 max pooling층의 역전파
Q-learning의 예시와 Markov Decision Process
가치함수와 벨만 방정식
Simple conv net을 만들고 학습해보자.
시소러스와 동시발생 행렬을 알아보자
SVD가 어디에 쓰이는지 이제 알았네
word2vec, CBOW, skip-gram모델을 알아보자
embedding 층을 알아보자.
sigmoid도 softmax와 함께할 수 있다. negative sampling도 해보자.
CBOW 모델 완전판, analogy
시계열의 데이터를 처리하자
RNN
Truncated BPTT
RNNLM을 학습을 시켜보자. 근데 성능이 좀 안좋은...
lstm은 너무 복잡해
최고의 lstm을 만들기 위해 코드가 쌓여간다
생성 모델!
기계 번역을 해보자