[ML LifeCycle] 신경망(Neural Networks)

beaver.zip·2024년 8월 18일
0
post-custom-banner

Perceptron

  • 인공 신경망의 가장 기본적인 단위, 인간의 뇌를 구성하는 뉴런의 작동 방식을 간단히 모방했음.
  • 다층 퍼셉트론과 딥러닝의 등장으로 인해 인공 신경망은 더욱 복잡한 문제를 해결할 수 있게 되었음.
  • 여러 개의 입력값 x에 각각 가중치 W를 곱해 모두 더한 뒤, 활성화 함수에 통과시켜 출력값을 얻음.
  • Linear Regression 모델에 Activation Function을 붙인 것으로 볼 수 있음.

Single Layer Perceptron

  • f(x)=Wxf(x) = Wx

Multi-layer Perceptron (MLP)

  • f(x)=W2(W1x)f(x) = W_2(W_1 x)
  • f(x)=W2W1x=Wxf(x) = W_2 W_1 x = Wx 에서 여전히 linear함.
    -> 즉, 여러 층을 쌓아도 의미가 없음. (결국에 Linear model로 표현될 수 있기 때문)
  • 활성화 함수(Activation Function)를 이용해 non-linear하게 만들 수 있음.
  • f(x)=a2(W2a1(W1x))f(x) = a_2(W_2 a_1 (W_1x))

Activation Functions

Neural Network의 예시


-> weight과 activation function을 무수히 반복하다보면, 굉장히 복잡한 패턴을 갖는 dataset에 대해서도 내재된 패턴을 찾을 수 있다.


Outro

참고 자료

profile
NLP 일짱이 되겠다.
post-custom-banner

0개의 댓글