y=xw+b선형 회귀는 input 값들의 선형적인 결합이 예측이라고 가정한다.데이터셋이 n개의 feature을 갖고 있다면 이 데이터셋에 대한 선형 회귀 모델은 최종적으로는 다음과 같이 표현될 것이다.Regularization은 한국어로는 정규화라고 하는데 보통 정규화
로지스틱 회귀 모델은 선형 회귀(Linear Regression)처럼 input의 w(가중치)를 계산하지만 바로 결과를 출력하는 것이 아니라 결과값의 logistic을 출력하기 때문에 분류 문제에 이용된다.로지스틱 회귀 식을 벡터 표현식으로 나타내면 아래와 같다.여기서
나이브 베이즈(naive bayes)는 데이터의 피쳐들 사이의 독립성을 가정하는 베이즈 정리에 기반한 확률론적 분류 모델이다.보통 스팸 이메일을 감지하는 등 텍스트 분류에 활용되는 편이다.조건부 확률을 이용하여 주어진 정보로 사후확률을 예측하는 것이다.likelihoo
결정트리(Decision Tree)는 분류(DecisionTreeClassifier)와 회귀(DecisionTreeRegressor)에 모두 사용이 가능하다.또한 결정트리는 강력한 머신러닝 알고리즘 중 하나인 랜덤 포레스트의 기본 구성 요소이기도 하다.의사 결정 트리는
SVM SVM은 서로 다른 범주 사이의 초평면을 찾고, 각 범주의 데이터와 Decision Boundary인 초평면(Hyperplain) 사이의 거리를 최대화하는 알고리즘이다. > 초평면: 어떤 N차원 공간에서 한 차원 낮은 N-1차원의 subspace 3차원의 경