lightGBM, XGBoost 등과 같은 알고리즘과 비교하였을 때 lightGBM이 튜닝되지 않은 Catboost 보다 좋은 경우를 제외하고, 만약 매개 변수를 튜닝하는 경우 데이터 세트의 품질 측면에서 다른 모든 라이브러리를 능가한다.
(1) Categorical features
(2) Parameter tunning
(3) Prediction speed
(4) Overfitting
(5) Training speed
(1) One-hot-encoding : 원본 feature가 제거되고, 각 범주에 대해 새로운 이진 변수 추가
(2) Number of appearances : 데이터셋의 카테고리 appearance를 새로운 feature로 사용하는 것
(3) Statistics with label usage on a random permutation of the data : 객체의 레이블 값을 사용하여 일부 통계를 계산하는 것
(4) Statistics on feature combinations : numeric 또는 categorical feature의 조합을 사용하는 방법