[인공지능] 손실함수와 활성화 함수

Eugene CHOI·2021년 6월 11일
0

Machine Learning

목록 보기
12/13

1. Loss function

1.1. MSE

MSE=12Ni=1N(yiti)2MSE=\frac1{2N}\displaystyle\sum_{i=1}^N(y_i-t_i)^2

1.2. Logistic Regression

L=i=1Lyilogr(xi)+(1yi)log(1r(xi))L = -\displaystyle\sum_{i=1}^L y_i \log r(x_i)+(1-y_i)\log(1-r(x_i))

2. Activation Function

2.1. Sigmoid

h(x)=11+exh(x) = \frac{1}{1+e^{-x}}

주로 이진분류에 사용합니다.

2.2. Soft-max

h(x1,x2,,xn)=1i=1nexi(ex1,ex2,,exn)h(x_1, x_2, \dots,x_n)=\frac 1{\displaystyle\sum_{i=1}^n e^{x_i}}(e^{x_1}, e^{x_2},\dots,e^{x_n})

주로 다중분류에 사용합니다.

2.3. Hyperbolic Tangent

h(x)=tanh(x)=exexex+exh(x)=\tanh(x)=\frac{e^x-e^{-x}}{e^x+e^{-x}}
profile
Hi, my name is Eugene CHOI the Automotive MCU FW developer.

0개의 댓글