주어진 데이터의 분포(distribution)에 영향을 주지 않으면서 효과적으로 데이터의 크기를 줄이는 방법
AdaBoost는 전체 관측치에 sample weight를 매기고, 올바르게 훈련되지 않은(under-trained) 관측치에 더 높은 가중치를 부여하여, 다음 학습에서 더 많은 focus를 받도록 설계되어 있다.
well-trained
관측치가 다음 학습에 거의 영향을 미치지 못하도록 만들이 위한 방법으로 GOSS가 나왔다.
그라디언트가 큰 것들을 유지하고, 작은 그라디언트를 가지는 관측치에 대해서 무작위로 샘플링을 한 후, 다음 학습에 사용한다.
Feature의 가짓수를 줄이는 방법이다. feature의 가짓수를 줄이면 트리가 overfitting되는 것을 막을 수 있다.
LightGBM 랑 XGBoost랑 비교했던 것 : https://velog.io/@aimaimee/%EB%B3%B4%ED%8C%85soft-hard-voting-%EA%B2%BD%EC%82%AC%ED%95%98%EA%B0%95%EB%B2%95-XGBoost%EC%99%80-LightGBM-%EB%B9%84%EA%B5%90
📌💯진짜 정리 잘 되어 있는 블로그📌💯 : https://blog.naver.com/wltjd54/222511122676
부족한 부분