딥러닝에서 비선형 활성화 함수를 사용하는 이유?

AI Scientist를 목표로!·2022년 11월 10일
0

선형함수란?

선형함수는 y=ax+by = ax +b와 같이 x값의 배수를 출력하는 함수를 말합니다.
즉, 1개의 곧은 직선을 말하는 것이죠

그렇다면 왜 딥러닝에서는 선형함수를 사용하면 안되는 것 일까요?

해답은 바로 은닉층을 깊게 쌓는 의미가 없기 때문입니다.

만약 선형 활성화 함수 f(x)=axf(x) = ax 라는 식이 있다고 가정해보겠습니다.

이때 은닉층이 3층으로 이루어질 경우 식으로 표현한다면 다음과 같습니다.

y=f(f(f(x)))y= f(f(f(x)))
즉, y=a3xy = a^{3}x가 되게 됩니다.

처음 f(x)f(x)의 값과 비교해 봤을 때 차이가 없습니다.
그냥 aa 자리에 a3a^3이 들어갔을 뿐이죠

이는 곧 층을 깊게하는 의미가 없다는 뜻이기도 합니다.

따라서 딥러닝의 활성화 함수는 반드시 비선형 함수를 쌓아야 합니다.
그래서 층이 많을 수록, 깊어질 수록 영향을 받기 때문입니다.

profile
딥러닝 지식의 백지에서 깜지까지

0개의 댓글

관련 채용 정보