요소
1. 뉴런의 수학적 표현
- 내적: 같은 위치에 있는 요소끼리 곱한 값들의 합
![](https://velog.velcdn.com/images/one_step/post/7886aae6-d57c-4209-9121-0498bf3824fc/image.png)
2. Fully-connected layer 수학적 표현
![](https://velog.velcdn.com/images/one_step/post/58674a79-7714-4243-9a3d-d3e1cf59a8eb/image.png)
![](https://velog.velcdn.com/images/one_step/post/04a1fe8c-0526-4413-897b-d7b0e7c50830/image.png)
4. Hidden Layer 수학적 표현
![](https://velog.velcdn.com/images/one_step/post/9f1f5622-3c51-4111-a11a-1d567e1f994d/image.png)
5. Output Layer 수학적 표현
![](https://velog.velcdn.com/images/one_step/post/d167d887-2b5f-41d3-8eb6-1431095f2123/image.png)
회귀
1. 선형 회귀
![](https://velog.velcdn.com/images/one_step/post/069abff8-f6ff-42ba-a5b8-9077ce175112/image.png)
Mean Squared Error
- 모델별로 상대적으로 작아지는 것을 선택하는 것이 중요
![](https://velog.velcdn.com/images/one_step/post/f4483dfa-c9ff-4bc6-99ec-142930d15ebf/image.png)
2. 다중 선형 회귀
- 변수가 하나 추가될 때마다 차원이 하나씩 추가 (직선 → 평면 → 초평면)
![](https://velog.velcdn.com/images/one_step/post/a63fba72-e76c-4b80-92f5-ff8888df2f12/image.png)
3. 신경망 회귀
- 은닉층의 효과: 선형적으로 분포되지 않는 입력이 선형적으로 분포하는 은닉계층(특징)을 만나면 선형 회귀 입력 Space를 기준으로 보면 회귀 곡선이 된다.
![](https://velog.velcdn.com/images/one_step/post/bcb8cfae-28c2-45d4-9021-bc4b1680c0c7/image.png)
분류
1. 로지스틱 회귀
- 변수가 하나 추가될 때마다 차원이 하나씩 추가 (직선 → 평면 → 초평면)
![](https://velog.velcdn.com/images/one_step/post/7c416d2e-a7dc-49f6-8ab4-744989dc304f/image.png)
cross entropy
![](https://velog.velcdn.com/images/one_step/post/ee5efb50-5f65-44cc-8c9e-a5c13fb8734e/image.png)
2. sigmoid function
![](https://velog.velcdn.com/images/one_step/post/4a7fcba1-55fb-480b-9ff3-316dbd0fbb2b/image.png)
3. 얇은 신경망과 분류
![](https://velog.velcdn.com/images/one_step/post/39060b14-a12e-43cb-a209-efae95dbb1f4/image.png)
은닉계층과 분류
![](https://velog.velcdn.com/images/one_step/post/a80ceb9b-427d-45cf-b497-ef514816dcfe/image.png)
Reference
1) 제로베이스 데이터스쿨 강의자료