수업 소개와 개요
기본적인 Machine Learning의 용어와 개념 설명
TensorFlow의 설치 및 기본적인 operations(new)
Linear Regression의 Hypothesis 와 cost
Tensorflow로 간단한 linear regression을 구현 (new)
Linear Regression의 cost 최소화 알고리즘의 원리
Linear Regression 의 cost 최소화의 TensorFlow 구현
multi-variable linear regression (new)
lab 04-1: multi-variable linear regression을 TensorFlow에서 구현하기
TensorFlow로 파일에서 데이타 읽어오기 (new)
Logistic Classification의 가설 함수 정의
Logistic Regression의 cost 함수 설명
TensorFlow로 Logistic Classification의 구현하기
Multinomial 개념 소개
Cost 함수 소개
lab 06-1: TensorFlow로 Softmax Classification의 구현하기
lab 06-2: TensorFlow로 Fancy Softmax Classification의 구현하기 (new)
학습 rate, Overfitting, 그리고 일반화 (Regularization)
Training/Testing 데이타 셋
lab 07-1: training/test dataset, learning rate, normalization
lab 07-2: Meet MNIST Dataset (new)
딥러닝의 기본 개념: 시작과 XOR 문제
딥러닝의 기본 개념2: Back-propagation 과 2006/2007 ‘딥’의 출현
Lab : Tensor Manipulation (new)
XOR 문제 딥러닝으로 풀기
특별편: 10분안에 미분 정리하기
딥넷트웍 학습 시키기 (backpropagation)
Lab 9-1: XOR을 위한 텐스플로우 딥넷트웍 (new)
Lab 9-2: Tensor Board로 딥네트웍 들여다보기 (new)
XSigmoid 보다 ReLU가 더 좋아
Weight 초기화 잘해보자
Dropout 과 앙상블
레고처렴 넷트웍 모듈을 마음껏 쌓아 보자
Lab 10: 딥러닝으로 MNIST 98%이상 해보기(new)
섹션 11. Convolutional Neural Networks
ConvNet의 Conv 레이어 만들기
ConvNet Max pooling 과 Full Network
ConvNet의 활용 예
실습1: TensorFlow CNN 의 기본
실습2: TensorFlow로 구현하자 (MNIST 99%)
실습3: Class, tf.layers, Ensemble (MNIST 99.5%)
섹션 12. Recurrent Neural Network
NN의 꽃 RNN 이야기
Lab 12-1 RNN - Basic (new)
Lab 12-2 RNN - Hi Hello Training (new)
Lab 12-3 : Long Sequence RNN (new)
Lab12-4: Stacked RNN + Softmax Layer (new)
Lab12-5: Dynamic RNN (new)
Lab12-6: RNN with Time Series Data (new)
powered by AWS
걱정없이 사용하기
AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기
Google Cloud ML with Examples 1