๐ ๋ฐํ ์๋ฃ ํคํฌ์ธํธ ๐
- Review ๊ฐ๋จํ (Optimization, Gradient Descent)
- Computational graphs ํ๋ฆ
- loss function
- input, parameter
- Gradient ๊ฐ๋ตํ ์ค๋ช
- matrix ์์์ gradient์ ์๋ฏธ (partial derivative)
- Backpropagation (scalar)
- Chain Rule์ ๋ฐ๋ผ local gradient๊ฐ ์ญ์ ํ ๋๋ ๊ณผ์ ๋ณด์ฌ์ฃผ๊ธฐ (๊ฐ์ ์์ 2๊ฐ: ์ฌ๋ผ์ด๋23~28 ๋ฐ๋ผํ๊ธฐ)
- ๊ณผ์ : example๋ค ์ฐฌ์ฐฌํ ๋ค ๊ณ์ฐํด์ฃผ๋ ๊ฒ ๋ณด์ฌ์ฃผ์ธ์!
- gate๋ณ ์ญ์ ํ flow (add, max, mul, copy ๊ฒ์ดํธ->๊ฒ์!)
- Forward pass์ gradient computation ๊ณผ์ ์ฝ๋๋ก ๋ณด์ฌ์ฃผ๊ธฐ & ์ค๋ช
- Backpropagation(vector)
- Jacobian matrix ์ค๋ช
- ๊ฐ์ ์ฌ๋ผ์ด๋ vectorized operations ์ question์ ๋ํ ๋ต๋ณ
- vector jacobian matrix ์์ (cs231n ๊ฐ์ ์ฌ๋ผ์ด๋์ ์๋ ์์ ์ ์ธ)๋ฅผ 2~3๊ฐ ์ ๋ ๊ฐ์ ธ์์ ์ฐฌ์ฐฌํ ๊ณ์ฐ/์ค๋ช
(์ธ๋ฏธ๋ ์๊ฐ์ ๊ฐ์ด ํ์ด๋ณด๋ ์์ผ๋ก ์งํํด์ฃผ์ธ์!)
- forward() / backward() API
- Neural Network
- ๊ฐ๋
(architecture.. etc)
- activation function (ํจ์๋ณ ์ค๋ช
๋ฐ ๋จ์ , ๋ณด์ ; ex. ReLU์ ๋จ์ -> ๋ณด์-> Leaky ReLU)
- Architectures : Fully-Connected Layer ์๋ฏธ, (vs. 1x1 conv.layer์๋ ๋น๊ตํด์ฃผ๋ฉด ์ข๊ฒ ์ต๋๋ค.)
์ฐธ๊ณ )
๊ฐ์: https://www.youtube.com/watch?v=d14TUNcbn1k&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=4&ab_channel=StanfordUniversitySchoolofEngineering
์๋ฃ: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture4.pdf