머신러닝:
지도학습:
회귀:
분류:
비지도학습:
Linear Regression:
학습(Learning):
training data의 특성을 가장 잘 표현할 수 있는 가중치 W(기울기), bias b(y절편)을 찾는 것
오차(error):
traning data의 정답(t)와 직선 y = Wx+b 값의 차이
error = t - y = t - (Wx+b)
=> 머신러닝의 regression 시스템은, 모든 데이터의 error의 합이 최소가 돼서, 미래 값을 잘 예측할 수 있는 W와 b 값을 찾아야 함
손실함수(loss function):
training data의 정답(t)과 입력(x)에 대한 계산 값 y의 차이를 모두 더해 수식으로 나타낸 것
오차(t-y)를 통해 손실함수를 구하면 오차 합이 0이 나올 수도 있어, 최소 오차 값인지 판별이 어려움
=> 손실함수에서 오차를 계산할 때는 (t-y)^2 를 사용
손실함수는 모든 데이터에 대한 평균 오차값을 나타냄
training data를 바탕으로 손실 함수 E(W, b)가 최소값을 갖도록 (W, b)를 구하는 것이 regression model의 최종 목적
경사하강법(gradient decent algorithm):
W에서의 직선의 기울기인 미분 값을 이용하여, 그 값이 작아지는 방향으로 진행하여 손실함수 최소값을 찾는 방법
Logistic Regression
=> Classification: Training Data 특성과 관계 등을 파악 한 후에, 미지의 입력 데이터에 대해서 결과가 어떤 종류의 값으로 분류 될 수 있는지를 예측하는 것
손실함수(cross-entropy)
Classification
=> Regression 과 sigmoid를 통한 Classification으로 손실함수 cross-entropy를 계산하여 최소값을 찾는다(W, b를 지속적으로 업데이트 하며)
논리게이트:
AND, OR, NAND, XOR 논리테이블은 입력데이터, 정답데이터인 머신러닝 Training Data와 개념적으로 동일
=> 논리게이트는 손실함수로 cross-entropy를 이용해서 Logistic Regression(Classification) 알고리즘으로 데이터를 분류하고 결과를 예측할 수 있음
XOR 게이트는 Logistic Regression으로 분류 불가
=> XOR 내부를 NAND OR, AND 의 조합인 Multi-Layer로 해결 가능
=> 각각의 Gate(NAND, OR, AND)는 Logistic Regression 시스템으로 구성됨
=> 이전 Gate의 모든 출력은 다음 Gate의 입력으로 들어감
=> Neural Network(신경망) 기반의 딥러닝 핵심 아이디어