출처 XGBoost와 사이킷런을 활용한 그레이디언트 부스팅 (2022), 코리 웨이드, 한빛미디어,
출처: XGBoost와 사이킷런을 활용한 그레이디언트 부스팅 (2022), 코리 웨이드, 한빛미디어 결정 트리 특성에 대한 질문에 따라 데이터를 분류함 (like 스무고개) branch(가지)의 분할을 통해 데이터를 두 개의 node로 나눔 가지분할은 leaf
출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어
출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어 부스팅 부스팅: 개별 트리의 실수로부터 학습 이전 트리의 오차를 기반으로 새로운 트리를 훈련하는 것 잔차(=실제값 - 예측값)를 활용 개별 트리가 이전 트리를
출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어테이블 형태의 데이터(행과 열로 구성)에서 우수한 성능을 보임LightGBM (MS 개발)과 경쟁 구도개별 모델의 예측이 중요하지만, 더 높은 성능 달성을 위해서는
출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어
출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어 LightGBM CatBoost Reference LightGBM 논문 LightGBM 논문 리뷰1 LightGBM 논문 리뷰2 LightGBM - 고려대 강