20220913 (1-8)
신경망과 딥러닝의 기초
CNN (합성곱 신경망/ 주로 이미지에 적용), RNN(순환 신경망/ 조금더 복잡한, 주로 음성! 시간의 흐름에 따라 적용), LSTM 등
Input(x): 주택에 관한 특성들/ Output(y): 가격 Y를 예측
이러한 아래의 신경망을 가지고 가격 y를 예측할 것
구조적 데이터, 비구조적 데이터 (해석하기 더 어려움)
[Scale drives deep learning progress]
(x,y)
220914(9-)
매개변수들 w와 b를 학습하려면 비용함수를 정의
손실함수 L (Loss funtion): 출력된 y의 예측값과 참값 y 사이에 오차가 얼마나 큰지 측정
: 알고리즘이 출력한 y의 예측값과 참 값 y의 제곱 오차의 반
대신
L(^y,y) = -(y x log(y의 예측값)+(1-y)xlog(1-y)의 예측값)) 사용!
비용(cost)함수 J(w,b): 매개변수 w와 b에 대해 손실 함수를 각각의 훈련 샘플에 적용한 값의 합들의 평균(m) 으로 나눈 값이다.
✭ 로지스틱 회귀 모델 학습이란? 손실함수 J를 최소화해주는 매개변수 (w,b)를 찾는것이다.
: '손실함수'는 하나의 훈련 샘플에 적용됨
: '비용함수'는 매개변수의 비용처럼 작용함
Gradient Descent (로지스틱 회귀)
J(w,b)
J(w)를 최소화 하기 / 경사하강법
(w:= 값을 갱신한다) 여기서 알파는 학습률(learning rate)
(1). w (w의 변화량 dw라고 씀) = w-학습률 x w에 대한 J(w,b)의 미분계수(dw) 로 갱신됨
여기서 미분계수가 양수이면 w - 미분계수 일 때 큰 수 - 작은 수 (서서히 매개변수 감소)/ 음수일 때는 (서서히 매개변수 증가)
(2). b (b의 변화량 db라고 씀) =b-학습률 x b에대한 비용 함수의 미분계수