

Bagging
Randomly chosen predictor variables
Tree는 작은 Bias와 큰 Variance를 갖기 때문에, 매우 깊이 성장한(Depth가 깊은) 트리는 훈련 데이터에 대해 Overfitting 하게 됨
한 개의 Tree의 경우 훈련 데이터에 있는 Noise에 대해 매우 민감함
따라서 Bagging은 서로 다른 데이터 셋들에 대해 훈련 시킴으로써, Tree들을 비상관화 시켜주게 됨



1) Random permutation 전-후의 OOB Error 차이가 크게 나타나야 하며,
2) 그 차이의 편차가 적어야 함
m번째 tree에서 변수 i 에 대한 Random permutation 전후 OOB error의 차이
전체 Tree들에 대한 OOB error 차이의 평균 및 분산
i 번째 변수의 중요도:
![]()