딥러닝 구조의 핵심은 여러 개의 hidden layer로 인해 학습기가 deep 하다는 것이다.
수용 → 조합 → 경계값/조건에 따라 전달
뉴런은 계속해서 신호를 받아서 그것을 조합하고, 특정 threshold가 넘어서면 "fire"를 한다.
퍼셉트론 ≈ 뉴론
입력변수 ≈ 수용
가중합 ≈ 조합
활성함수 ≈ Threshold
최종 결과물 ≈ 전달
단일 뉴런의 작동 원리를 묘사
더 많은 은닉 노드가 생기면 분류 경계면 복잡도가 늘어난다.
Representation 수행
정보(Input layer)의 패턴을 찾는 과정이 Representation Learning이라고 한다.
은닉 노드가 증가하면 패턴을 다양하게, 복잡하게 찾을수 있다.
Representation Learning = Pattern Extraction = Feature Extraction
Representation을 통해서 원래 데이터가 존재하는 공간을 변경한다.
Training하는 과정에서 은닉 노드가 task를 수행하는 데에 가장 적합한 공간구조를 Representation하게 된다.
Task 수행
확률값을 출력한다.
모델설계부분을 아직 못함(LMS)
MNIST dataset은 28 x 28 사이즈로 784 pixel의 2D 이미지다. 이를 MLP 모델에 적용하기 위해서는 2차원 데이터 1차원 구조로 변경시켜야 한다.
행과 열로 저장된 데이터에서 하나의 행 혹은 열을 노드로 전환 시켜서 적용시킨다. (28 X 28 => 784노드)
하지만 앞에서 픽셀 하나로만 데이터의 정보를 파악할수 없다. 따라서 이미지 데이터와 MLP 구조의 불합치가 일어난다.