1 입력(Inputs): 뉴런에 들어오는 신호 이들은 다른 뉴런의 출력이거나, 외부 소스에서 온 데이터
2 가중치(Weights): 각 입력에 대해 할당된 가중치. 이 가중치는 해당 입력의 중요도
3 활성화 함수(Activation Function): 가중치가 적용된 입력의 합을 받아들여, 뉴런의 출력을 결정하는 함수
4 바이어스(Bias): 뉴런의 활성화 임계값을 조정하는 역할
5 출력(Output): 뉴런의 최종 출력 신호
Fully-conmnected layer(완전 연결 계층) 또는 Dense layer은
신경망에서 가장 기본적인 레이어이다.
Fully-connected layer는 입력 데이터가 1차원 배열로 표현될 수 있는 경우에 적합
장점: 간단하고 범용적이며 복잡한 관계와 패턴을 학습
단점: 많은 파라미터를 가지고 있어서 모델의 크기가 커지고, 과적합의 위험이 있다. 입력 데이터의 크기가 클 때 비효율적
예를 들어, 28x28 픽셀의 이미지를 입력으로 사용하는 경우, 입력 계층에는 784(28x28)개의 뉴런
가중치와 바이어스: 입력 계층의 뉴런은 가중치와 바이어스를 가지고 있지 않다
활성화 함수: 입력 계층에는 활성화 함수가 적용되지 않는다.
입력 계층은 외부 세계로부터 데이터를 받아들이고, 이를 신경망 내부로 전달
신경망의 입력 계층과 출력 계층 사이에 위치하는 계층, 이 계층들은 신경망이 복잡한 패턴과 관계를 학습하는 데 도움을 주며, 모델의 예측 능력을 향상
은닉 계층의 뉴런 수는 사용자가 정의
은닉 계층의 각 뉴런은 가중치와 바이어스를 가지며, 이를 통해 입력 데이터를 변환
은닉 계층에는 비선형 활성화 함수가 적용되어, 모델이 복잡한 비선형 관계를 학습
무 많은 은닉 뉴런이나 계층을 사용하면 과적합(overfitting)이 발생할 위험이 있으며, 학습 시간이 길어진다.
모델의 최종 예측 결과를 생성
회귀 문제에서는 일반적으로 선형 활성화 함수를 사용하고, 분류 문제에서는 softmax 또는 sigmoid 활성화 함수를 사용
예측 생성: 출력 계층은 모델의 최종 예측 결과를 생성
손실 계산: 출력 계층의 예측과 실제 레이블 간의 차이를 계산하여 손실을 도출
이진 분류: 출력 계층에는 하나의 뉴런이 있고, 활성화 함수로는 sigmoid를 사용
다중 클래스 분류: 출력 계층에는 클래스의 수만큼 뉴런이 있고, 활성화 함수로는 softmax를 사용
회귀: 출력 계층에는 하나의 뉴런이 있고, 활성화 함수로는 선형 함수(또는 아무 함수도 사용하지 않음)를 사용
MSE(Mean Squared Error) :회귀 문제에서 주로 사용되는 손실 함수
MSE는 모델의 예측값과 실제값의 차이를 제곱하여 평균을 내는 방식으로 계산
MSE는 모델의 예측 오차를 정량화하는 데 사용되며, 이 값을 최소화하는 것이 모델 학습의 목표
MSE는 항상 0 이상의 값을 가집니다. MSE가 0에 가까울수록 모델의 예측이 실제값에 가깝다
MSE는 제곱을 포함하기 때문에, 큰 오차에 대해서는 작은 오차보다 더 큰 벌칙을 부과
MSE는 미분 가능하므로, 경사 하강법과 같은 최적화 알고리즘을 사용하여 모델의 가중치를 업데이트하는 데 유용
벡터의 내적(dot product):두 벡터의 상응하는 요소들을 곱한 후 그 결과를 모두 더하는 연산
내적은 벡터의 방향과 크기에 대한 정보를 포함하며, 두 벡터 간의 각도를 계산
신경망에서 내적은 입력 벡터와 가중치 벡터 간의 선형 결합을 계산하는 데 사용
얕은 신경망을 사용한 회귀에서는 선형 회귀보다 더 복잡한 패턴을 학습할 수 있는 능력이 있다
은닉 계층을 통한 비선형 변환 덕분
출력 계층 자체는 선형 회귀와 유사한 선형 변환을 수행합니다.
손실 함수는 모델의 예측이 실제 레이블과 얼마나 잘 일치하는지를 측정
Softmax다중 클래스 분류 문제에서 사용되는 활성화 함수
softmax 함수는 신경망의 원시 출력(또는 로짓)을 입력으로 받아, 각 클래스에 대한 확률을 타나내는 값으로 변환한다.
Softmax 함수는 로짓 벡터의 최댓값에 가장 높은 확률을 할당하며, 다른 값들은 상대적으로 낮은 확률을 할당