사람의 뇌가 동작하는 방식을 그대로 흉내내어 만든 수학적 모델
뉴런과 시냅스: neuron and synapse
-사람의 뇌는 뉴런(신경세포)들이 서로 연결되어 다른 뉴런들과 상호작용
-입력으로 받은 전기 신호를 적당히 처리하여 다른 뉴런에 전달
-신호를 전달하려면 입력으로 받은 전기 신호의 합이 일정 수준(threshold)을 넘어야 함
생물학적 뉴런
dendrites=수상돌기 axon terminal= 축삭말단
인공적(수학적)인 뉴런:
뉴런의 동작 방식을 모방하여 만든 수학적 모델
입력값: x1,x2,...,xn
-입력값의 합을 구할때, 해당 입력값을 강화하거나 약화하기 위해 곱하는 값
-y=f(x1,x2,...,xn)=w1x1+w2x2+...+wnxn
-y의 값이 임계값(threshold)보다 크면 1, 아니면 0을 출려가는 함수
-출력값: y=1이면 다음 퍼셉트론으로 전달하고, y=0이면 전달하지 않음
1.bounded 2.monotonic
미분 가능하면 좋은 이유 -> 경사하강법으로 최적의 파라미터를 찾을 때 미분해서 0이 되는 지점을 찾아가야 하기 때문
왼쪽은 계단, 오른쪽은 로지스틱(공통점: 둘다 비선형함수)
교정된 선형 단위: Rectified Linear Unit
시그모이드 함수의 경사 손실 현상: Vanishing Gradient
XOR->구현 불가능, 비선형적인 특성이 필요
NAND게이트는 모든 계산이 가능하다
?? 의문점: 계단이랑 RELU는 다른거?ㅇㅇ달러, RELU는 선형 단위인데 선형함수?->ㄴㄴ 비선형함수, RELU함수는 시그모이드 함슈의 경사 손실현상으로 나온 함수인가?
분석:
FINEAGG의 가중치 값과 은닉층의 편향값은? -> 0.24606, -2.6352
입력층: Input Layer
-신호가 입력되는 곳
은닉층: Hidden Layer
-입력층의 신호들을 모아서 출력층으로 신호를 전달하는 곳
-노드가 많을수록 더 결과가 정확하겠지만, 계산량도 많아짐
출력층: Output Layer
-은닉층으로부터 받은 값을 출력해 주는 곳
몇 개의 계층으로 구성할 것인가? 은닉층은 여러 개 있을 수 있다.
네트워크의 각 계층별로 몇 개의 노드를 둘 것인가?
정보는 순방향으로만 흐를 것인가, 역방향으로만 흐를 것인가?
정보의 흐름이 입력층에서 출력층까지 순방향으로만 진행
a->z로 갈때 활성화 함수를 돌림, 은닉층의 활성화함수와 출력층의 활성화함수를 다르게 줄 수 있다.
네트워크 토폴로지가 뭐여?
소프트플러스 함수: ReLU 함수를 미분가능하도록 변형
분석: 입력층은 8개의 퍼셉트론을 가지고, 은닉층은 모두 10개의 퍼셉트론을 가지고,
은닉층은 모두 10개의 BIAS값을 가진다. 은닉층은 2개의 층으로 구성된다.