회귀(Regression)
선형 회귀분석의 4가지 기본 가정
선형성(Linearity)
잔차(Residuals)
데이터셋에서 feature당 선형회귀 모델 생성으로 각 feature당 특징 파악하는 예제 코드
for i in range(data.shape[1]): # boston dataset에서 i번째 attribute(column)을 살펴볼 거에요.
single_attr, attr_name = data[:, i].reshape(-1, 1), boston['feature_names'][i] # i번째 attribute에 대한 data 및 이름
estimator = LinearRegression() # 선형 회귀 모델이에요.
#x에는 single_attr, y에는 price에 해당하는 데이터를 대입해서 최소제곱법을 이용하여 모델 내에서 W, b를 구하는 과정이에요
estimator.fit(single_attr, price)
#위 fit() 과정을 통해 구한 회귀계수를 기반으로 회귀모델에 X값을 대입했을 때의 예측 Y 값이에요.
pred_price = estimator.predict(single_attr)
score = metrics.r2_score(price, pred_price) # 결정계수를 구하는 함수에요.
# 캔버스 생성
ax = fig.add_subplot(7, 2, i+1)
ax.scatter(single_attr, price) # 실제 데이터에 대한 산포도
ax.plot(single_attr, pred_price, color='red') # 선형회귀모델의 추세선
ax.set_title("{} x price, R2 score={:.3f}".format(attr_name ,score)) #subplot의 제목이에요
ax.set_xlabel(attr_name) # x축
ax.set_ylabel('price') # y축
Logistic Regression
Log-odds
결국 Logistic Regression의 중요한 의미는
: 분류 문제를 연속적인 변수인 확률적으로 접근한다는 것!
Softmax
Cross-Entropy
Fully-Connected layer
Backpropagation의 원리
편미분계수의 의미
upstream derivates 가 여러 노드에서 하나로(입력층으로) 온다면 그 들을 그냥 더하면 된다.
cs231n 강의를 들으며 많이 이해됐다고 생각했는데, 생각보다 애매모호하게 짚고 넘어간 부분이 많았다... 그런 부분에 대한 인지가 오늘은 좋았고, LMS에서도 굉장히 쉽게 생각하던 Linear Regression의 심오함(?)에 대해 지경을 넓히게 되었다.(Linear Regression의 assumptions...)