why) 소개하는가? DNN에 앞서 shallow NN을 먼저 설명
인간의 뇌의 구조와 기능에서 영감을 받은 Machine learning 모델의 유형
Neuron(Regressor) 으로 이루어짐.
❓ For) Data 내부의 패턴을 학습 || 그러한 패턴에 기반한 예측
❕ How) Learn in each Neuron
→ log. R과 forward prop., back prop.을 이용해 Cost function을 최소화하는 방향으로 w, b를 업데이트함.
1. forward propagation (추정값 도출)
2. loss 함수 정의: where y=ground truth
3. back propagation (뒤로 가며 미분)
➰ Ex) Feedforward NN, CNN, RNN, etc
why) Transpose 사용?
→ Matrix Multiplication의 편의성
각 Neuron에서는 다음과 같은 연산이 이루어짐
Given input :
🥲 Pb) m개의 data에 대하여 Log. R 따로 계산하면 (for-loop 사용하면) inefficient
→ Sol) x→ vector, W → matrix로 만들어주면, GPU로 병렬 연산이 가능해서 효율성 gd
1) 2 Layered NN by Gradient Descent
하나의 hyperplane는 linearly seperable한 함수에 대해서만 표현할 수 있다.
NN은 위와 같은 한 평면에 있는 (위와 같은) red, blue를 분류할 수 있는 모델을 만들 수 있다.

2) Another Ex.; Deep NN by GD
다음과 같은 복잡한 형태도 가능

여러 가지가 있으므로 모델링 시마다의 option
Sigmoid -> 이진 분류
tanh -> 다중 분류
sigmoid function을 늘린 버전
ReLu :
gradient가 0 | 1
Leaky ReLU
▶️ Binary Classification → output layer에서는 sigmoid가 일반적. ReLU는 무한히 커지므로 확률값을 표현하기가 어렵.
미분값이 적당하고 직관적임.