퍼셉트론으로 복잡한 함수를 표현할 수 있지만, 가중치를 설정하는 작업은 여전히 사람이 수동적으로 해야 한다.
신경망은 가중치 매개변수의 적절한 값을 데이터로부터 자동으로 학습하는 능력
이 있기 때문에 이를 해결할 수 있다.
가장 왼쪽 줄을 입력층(Input Layer)
중간 줄을 은닉층(Hidden Layer)
가장 오른쪽 줄을 출력층(Output Layer)
은닉층(Hidden Layer)
은 입력층이나 출력층과 달리 사람 눈에는 보이지 않는다.
(편향의 입력 신호는 항상 1이기 때문에 해당 뉴런을 회색으로 칠해 다른 뉴런과 구별.)
는 편향
을 나타내는 매개변수로, 뉴런이 얼마나 쉽게 활성화되느냐를 제어.
는 각 신호의 가중치
를 나타내는 매개변수로, 각 신호의 영향력을 제어.
처럼 입력 신호의 총합을 출력 신호로 변환하는 함수를 활성화 함수(Activation Function)
라 한다.
이름이 말해주듯 활성화 함수는 입력 신호의 총합이 활성화를 일으키는지를 정하는 역할을 한다.
가중치가 달린 입력 신호와 편향의 총합()을 라 할 때,
위와 같이 라는 Activation Function에 를 넣어 를 출력하는 흐름.
활성화 함수는 임계값을 경계로 출력이 바뀌는데, 이런 함수를 계단 함수(Step Function)
라 한다.
그래서 퍼셉트론에서는 활성화 함수로 계단 함수를 이용한다.
라고 할 수 있다.
입력값의 합이 임계값을 넘으면 0을, 넘지 못하면 1을 출력.
신경망의 활성함수에서 Step Function은 거의 사용하지 않는다.
그 이유는 ?
이런 문제점을 해결하기 위해서 등장한 것이 시그모이드 함수(Sigmoid)
신경망에서 자주 이용하는 활성화 함수인 시그모이드 함수(Sigmoid Function)이다.
Sigmoid Function은 부드러운 곡서이며 입력에 따라 출력이 연속적으로 변화한다.
한편, 계단 함수는 0을 경계로 출력이 이산적으로 바뀌게 된다.
Sigmoid Function
은 입력에 따라 출력이 연속적으로
변화한다.Step Function
은 0을 경계로 출력이 이산적으로
변화한다.비선형 함수
이다.선형 함수
: 함수에 변수를 입력했을 때, 출력이 입력의 상수배만큼 변하는 함수
에서 는 상수이다. 그래서 선형 함수는 곧은 1개의 직선이 된다.
비선형 함수
: 선형이 아닌 함수. 직선 1개로는 그릴 수 없는 함수.
Sigmoid Function은 오래전부터 이용했으나, 최근에는 ReLu(Rectified Linear Unit, 렐루) Function
을 주로 사용한다.
ReLU는 입력이 0을 넘으면 그 입력을 그대로 출력하고, 0 이하이면 0을 출력하는 함수이다.
가중치 오른쪽 아래의 인덱스 번호는 '다음 층 번호, 이전 층 번호' 순으로 적는다
이와 같이 층마다 변수들을 Vector와 Matrix 형태로 변환하여 간소화가 가능하다.
Hidden Layer의 Activation Function으로 Sigmoid Function을 사용했지만,
Output Layer의 Activation Function으로 Identity Function을 사용한 이유는
➡️ Output Layer의 Activation Function은 풀고자 하는 문제의 성질에 맞게 정한다. 회귀에는 Identity Function을, 2클래스 분류에는 Sigmoid Function을, 다중 클래스 분류에는 Softmax Function을 사용하는 것이 일반적이다.
간소화하여 코드 작성
신경망은 분류와 회귀 모두에 이용할 수 있다.
다만 둘 중 어떤 문제냐에 따라 출력층에서 사용하는 활성화 함수가 달라진다.
일반적으로 회귀에는 Identity Function을, 분류에는 Softmax Function을 사용한다.
Identity Function(항등 함수)는 입력을 그대로 출력한다. 입력과 출력이 항상 같다는 뜻의 항등이다.
: 출력층의 뉴런 수
: 출력층의 뉴런 수 중 i번째 출력
Softmax Function의
분모
는 모든 입력 신호의 지수 함수의 합으로 구성되고,
분자
는 입력 신호 의 지수 함수로 구성된다.
softmax() 함수를 코드로 작성할 때, Overflow 문제를 주의해야 한다.
Softmax Function은
Exponential(지수함수)를 사용하고 있기 때문에 아주 쉽게 매우 큰 값을 내뱉는다.
따라서 Overflow를 막기 위해서,
입력 신호 중 최댓값을 빼주면 올바르게 계산할 수 있다.
확률
로 해석할 수 있다.기계학습의 문제 풀이는 학습
과 추론
의 두 단계를 거쳐 이뤄진다.
학습
단계에서는 모델을 학습하고, 추론
단계에서는 모델로 미지의 데이터에 대해서 추론(분류)을 수행한다.
신경망을 학습시킬 때는 출력층에서 Softmax Function을 사용하지만, 추론 단계에서는 exp(지수함수)에 드는 자원 낭비를 줄이고자 출력층의 Softmax Function은 생략하는 것이 일반적이다.
출력층의 뉴런 수는 풀려는 문제에 맞게 적절히 정해야 한다.
분류에서는 분류하고 싶은 클래스 수로 설정하는 것이 일반적이다.
예를 들어, 입력 이미지를 0~9 중 하나로 분류하는 문제라면 위의 사진처럼 출력층의 뉴런을 10개로 설정한다.
순전파(forward propagation)
라고 한다.load_mnist() 함수의 인수로는
normalize
: 입력 이미지의 픽셀값을 0.0~1.0 사이의 값으로 정규화할지를 결정. (bool)
True ➡️ 0.0 ~ 1.0
False ➡️ 0 ~ 255
(데이터를 특정 범위로 변환하는 처리를 정규화(Normalization)
라고 하고,
신경망의 입력 데이터에 특정 변환을 가하는 것을 전처리(Preprocessing)
이라고 한다.)
flatten
: 입력 이미지를 평탄하게, 즉 1차원 배열로 만들지 결정. (bool)
True ➡️ 1차원 배열 형태로 (1 x 784)
False ➡️ 3차원 배열 (1 x 28 x 28)
one_hot_label
: one-hot encoding 형태로 저장할지를 결정.
(one-hot encodig은 [0,0,1,0,0]처럼 정답을 뜻하는 원소만 1이고 나머지는 모두 0인 배열.)
True ➡️ one-hot encoding하여 저장
False ➡️ '7'이나 '2'와 같이 숫자 형태의 레이블을 저장.
입력 데이터의 shape : 100 X 784, 출력 데이터의 shape : 100 X 10
이는 100장 분량 입력 데이터의 결과가 한 번에 출력됨을 나타낸다. --> 이처럼 하나로 묶은 입력 데이터를 배치(batch)
라고 한다.
즉, 컴퓨터에서는 큰 배열을 한꺼번에 계산하는 것이 작은 배열을 여러 번 계산하는 것보다 빠르다.