Hidden Layer(히든레이어)

YU NA Joe·2022년 3월 31일

신경망을 깊게 하기 위해서는?

  • 기존의 퍼셉트론 여러개 사용해 연결만 하면 된다. 입력과 결과 사이에 퍼셉트론들을 추가해 주면 된다.

  • Input layer와 Output layer 사이에 추가한 부분을 Hidden Layer라 한다.

  • 아래의 Hidden Layer은 3개의 노드를 가지고 있다.

  • Hidden Layer의 첫번째 결과를 만들기 위해서는 하나의 Perceptron이 필요하다. 총 4개의 node가 있으니 3개의 Perceptron이 필요하다.

  • Suppose, data가 100개 라고 하자. Input Layer에는 (100,2) output Layer (100,1), Hidden Laryer은 (100,3) 의 모양을 갖는다.

  • Hidden Layer와 Output Layer 부분만 보면은, 3개의 입력을 받아 1개의 결과를 출력하는 모델이다.

  • Input Layer와 Hidden Layer 부분만 보면은, 2개의 입력을 받아 3개의 결과를 출력하는 모델이다.

  • 각각의 모델을 연속적으로 연결하여 하나의 거대한 신경망을 만드는 것이 딥러닝 인공지능이다.

Why do we need hidden layers?

요약해보았다..

artificial neural networks (ANNs)은 여러개의 layers층들로 구성이 된다.
잉러한 layers들은 크게 input, hidden, and ouput으로 나뉠 수 있다.

input과 ouput들의 neruosn, 즉 node를 아는 것은 쉽다.

input layers의 the numer of nueros은 == the number of input vars 이다.

output layers의 the number of neurons == the number of ouput associated with each input.

Hiddenlayesr를 결정하는 방법?!

  1. 우선, hiddenlayers가 필요한지 안 한지 결정?! 해야 한다.
  • 데어터가 non-linearly 일 때 hidden layers가 필요한다.
  1. hidden layers가 필요하다면,
  • 몇개의 hidden layers가 필요한지?
  • 각 hidden layers에서 the number of the hidden neruons, 즉 node가 필요한지?
    ( 참고로, hidden neruons를 add하면은 즉 node를 추가하면은, 가중치를 올리기 때문에 최소한의 node를 만들어야 한다. 필요한 것 이상의 node는 그냥 모델의 복잡성을 올리는 것 뿐이다.)

perceptron

y = w_1x_1 + w_2x_2 + ⋯ + w_i*x_i + b

x_i is the input,
w_i is its weight,
b is the bias,
y is the output.

즉, 한개의 perceptron은 1개의 line으로 구성이 되어있고 & 여러개의 perceptron은 여러개의 line으로 구성되어 있는 격.


해결하는 문제가 can be solved with linear regression
hidden layer가 필요 없다.

출처:
https://towardsdatascience.com/beginners-ask-how-many-hidden-layers-neurons-to-use-in-artificial-neural-networks-51466afa0d3e#:~:text=In%20artificial%20neural%20networks%2C%20hidden,get%20the%20best%20decision%20boundary.

https://www.youtube.com/watch?v=bqBRET7tbiQ

0개의 댓글