최초의 부스팅 알고리즘
이전 결정 트리가 잘못 예측한 데이터에 큰 가중치(w1w_1w1)를 부여해, 다음 결정 트리가 더 집중할 수 있도록 순차적으로 학습
결정 트리로는 stump 구조 사용
B개의 결정 트리별로 계산된 모델 가중치(CbC_bCb)를 합산해 최종 모델 생성
b 번째 반복에서의 모델은 다음처럼 결정 트리의 선형 결합 f^b(xi)=c1f^1(xi)+...+cbf^b(xi)=f^b−1(xi)+cbf^b(xi)\hat f_b(x_i) = c_1\hat f_1(x_i)+...+c_b\hat f_b(x_i)=\hat f_{b-1}(x_i) + c_b\hat f_b(x_i)f^b(xi)=c1f^1(xi)+...+cbf^b(xi)=f^b−1(xi)+cbf^b(xi)
손실함수는 지수 손실의 합으로 정의(wi1=1,wib=e−yif^b−1(xi)w_i^1=1, w_i^b = e^{-y_i\hat f_{b-1}(x_i)}wi1=1,wib=e−yif^b−1(xi)가정)