Logistic Regression
Linear Regression
- Basic machine learning and statistical analysis method, which assumes the linear relationship between input and output
- We estimate the optimal coefficients to minimize the loss function
Logistic Regression
- Categorical Variable
- Binary(0, 1)
- Multi-class(1, 2, 3)
- Different approach to simple linear regression is required
![](https://velog.velcdn.com/images/psy4072/post/607defbc-de90-4013-9677-6b1196d1d34a/image.png)
➡️ Sigmoid 함수
- Minimize Loss(=Cross-Entropy)
Neuron and Logistic Regression
- A Logistic Regression model (Perceptron) corresponds to a neuron in our brain
![](https://velog.velcdn.com/images/psy4072/post/bbe34205-f189-41ba-b3f0-0cab7c3b2f35/image.png)
Limitation of Linear Classifier
- Basic logistic regression model is unable to classify nonlinear patterns
- We must transform our data to be appropriate for linear classifier
= Finding better data representation manually
![](https://velog.velcdn.com/images/psy4072/post/beff29e2-1a1b-4ecd-97d4-d35b29e74f21/image.png)
➡️ 같은 데이터이지만 표현 방식에 따라 분류가 달라짐
Basic Structure
Logistic Regression to Neural Network
- If we stack linear classifiers, we can automatically learn the nonlinear pattern
Linear Regression
![](https://velog.velcdn.com/images/psy4072/post/8520b589-476e-420d-b190-08b6f0cc7f68/image.png)
➡️ 입력에 대한 parameter을 곱하는 선형적인 표현
➡️ Y = XB
x -> Data Metrix
B -> coefficient vector
Logistic Regression
![](https://velog.velcdn.com/images/psy4072/post/7330a72e-c443-4057-bcaa-fbf64430b47c/image.png)
➡️ 선형함수를 시그모이드 함수(Activation Function) 에 넣어서 그 값을 비선형적으로 변환해주는 함수
Multi-output Linear Regression
![](https://velog.velcdn.com/images/psy4072/post/3fe8efc2-d815-45fc-98c2-a1d00182d044/image.png)
➡️ 1개의 input에 대해 output이 여러개로 출력
2-Hidden Layer Neural Network
![](https://velog.velcdn.com/images/psy4072/post/aee72528-b324-4fc0-b2d4-9f489f4f210b/image.png)
➡️ hidden layer 중간에 삽입된 Activation Function의 중요성
: 여러 층의 비선형적 패턴을 스스로 학습한다의 최종 목적을 달성하기 위해서
Multi-layered Structure
Activation Functions
- Sigmoid
- Tanh
- ReLU
➡️ max(0,x)
➡️ 0보다 크면 x 출력, 0보다 작으면 0 출력
➡️ 최근에 많이 사용
- Leaky ReLU
➡️ max(0.1x, x)
- Maxout
- ELU
➡️ 문제점 : activation이 안될경우, 그 다음부터 학습 진행이 안됨
![](https://velog.velcdn.com/images/psy4072/post/7424f4da-203c-4216-a6ca-69706d7427db/image.png)
how activation functions work (ReLU)
![](https://velog.velcdn.com/images/psy4072/post/87a7fd59-8db8-4c75-8a5a-f6676ca6746b/image.png)
➡️ x1, x2 에서 h1, h2를 기준으로 하는 새로운 데이터 공간
➡️ 특정 직선이나 평면을 대변하는 벡터에 데이터벡터를 내적
➡️ 새로운 기준축이 되는 관점으로 기존의 데이터 축을 바라보겠다.
➡️ 선형 파라미터들 곱해주는 작업은 새로운 좌표공간으로 기존 데이터들을 선형변환 시켜줌
![](https://velog.velcdn.com/images/psy4072/post/83e5e7f7-9598-4d59-8fb5-d79c88fddd7f/image.png)
➡️ 각각의 h1, h2축 기준으로 봤을 때 0보다 작은 값들은 다 0으로 만들어준다
➡️ 1사분면을 제외한 2, 3, 4사분면의 값들의 변화
![](https://velog.velcdn.com/images/psy4072/post/2776a9ee-3d6e-47cc-bb29-f6349ee5f77a/image.png)
how activation functions work (tanh)
![](https://velog.velcdn.com/images/psy4072/post/cf4957fb-2576-4655-b2fa-5711b277313e/image.png)
Softmax Function
![](https://velog.velcdn.com/images/psy4072/post/88ecce22-9ebf-4557-8b33-1824a06a0e7a/image.png)
how to Train Neutral Network
- Minimize Loss(Cross-Entropy)
reference : K-MOOC 실습으로 배우는 머신러닝