[Deep Learning] 활성화 함수

띠로리·2024년 2월 17일

오늘의 주요 내용

  • 활성화 기능과 신경망에서 사용할 수 있는 활성화 기능의 예시
  • 예시 중 어느 기능이 신경망에서 가장 흔하게 사용되는지
  • 입력 값의 가중 합계를 계산하는 데 활설화 함수를 적용하고 다음 뉴런에 신호를 전달하는데, 이때 사용되는 함수에 대해 알아봅시다.

활성화 함수의 네 가지 유형

➡️ 네 가지보다 더 많은 유형의 함수가 있지만, 가장 많이 사용되는 것들 위주로 알아봅시다.

1. Threshold Function

  • x축 : 입력값의 가중 합계
  • y축 : 0 ~ 1 사이의 값

Threshold Function은 값이 0보다 작으면 0을 전달하고, 0보다 크거나 같으면 1을 전달한다.

2. Sigmoid

  • x축 : 가중 합계의 값
  • y축 : 0 ~ 1 사이의 값
  • 로지스틱 회귀에서 사용하는 함수다.

< 특징 >

  • 매끄럽다. 곡선에 꼬임이 없어서 매끄럽고 점진적으로 진행된다.
  • 0 아래면 무조건 없는 셈 치고 0이상이면 1에 가까워진다.
  • 마지막 층인 출력층에 아주 유용하다. 특히 확률을 예측할 때 유용함.

3. Rectifier

  • 꼬임이 있긴 하지만 인공 신경망에서 가장 유명한 함수 중 하나이다.
  • x축 값이 0이 되면 거기서부터 입력값이 증가하면서 서서히 진행된다.

4. Hyperbolic Tangent (tanh)

  • 시그모이드 함수와 아주 비슷하게 생겼다 ! 하지만 값이 0 아래로 내려간다는 차이가 있다.
  • x값이 양수이면 0 ~ 1 사이 값을, 음수이면 0 ~ -1 사이의 값을 갖는다.
  • 특정 응용 프로그램에서 유용하게 사용된다.

Rectifier 관련 추가 내용

2011년에 발표된 "Deep sparse rectifier neural networks" 논문 참고

profile
차곡 차곡 기록 쌓기

0개의 댓글