# GBM

GBM
Index GBM sklearn.ensemble.GradientBoostingClassifier GBM Ensemble Boosting : 단일 모델들을 직렬로 심화 작업하도록 설계하는 방식 이전 모델에 대하여 그 손실이 큰 관측치들을 학습률(Learning Rate)만큼 가중하여 심화학습함 [경사하강법과 학습률의 이해](https://velog.io/@jayarnim/%EA%

제로베이스 데이터취업스쿨 DAY57 머신러닝16~20
와인 데이터 분석 전처리 EDA  앙상블은 전통적으로 Voting, Bagging, Boosting, Stacking 등으로 나눔 (2) 보팅과 배깅은 여러 개의 분류기가 투표를 통해 최종 예측 결과를 결정하는 방식 (3) 보팅과 배깅의 차이점은 보팅은 각각 다른 분류기, 배깅은 같은 분류기를 사용 (4) 대표적인 배깅 방식이 랜덤 포레스트 부스팅 (1) 여러 개의 약한 분류기가 순차적으로 학습을 하면서, 앞에서 학습한 분류기가 예측이 틀린 데이터에 대해 다음 분류기가 가중치를 인가해서 학습을 이어 진행하는 방식 (2) 예측 성능이 뛰어나서 앙상블 학습을 주도하고 있음 7장 55GBM, XGBoost, LGBM_ GBM (1) 부스팅 알고리즘은 여러 개의 약한 학습기를 순차적으로 학습-예측하면서 잘못 예측한 데이터에 가중치를 부여해서 오류를 개선해가는 방식 (2) GBM은 가중치를 업데이트할 때 경사 하강
[머신러닝] Ensemble Learning
앙상블이란? > - 앙상블 학습을 통한 분류는 여러 개의 분류기를 생성하고 그 예측을 결합함으로써 보다 정확한 최종예측을 도출하는 기법 앙상블 학습의 목표 - 다양한 분류기의 예측 결과를 결합함으로써 단일 분류기보다 신뢰성이 높은 예측값을 얻는 것 정형 데이터 분류 시에는 앙상블이 뛰어난 성능을 보임 * 대표 알고리즘* _랜덤 포레스트 그래디언트 부스팅 알고리즘_ / XGBoost, LightGBM * 앙상블 학습의 유형 * 보팅(Voting) 배깅(Bagging) 부스팅(Boosting) 이외에도 스태킹을 포함한 다양한 앙상블 방법이 존재 보팅(Voting)과 배깅(Bagging) 보팅 분류기 도식화 > 3개의 ML 알고리즘이 같은 데이터 세트에 대해 학습하고 예측한
CH 4. 분류 -2
1. 앙상블학습 앙상블 학습 개요 여러 개의 분류기를 생성하고 그 예측을 결합 -> 보다 정확한 최종 예측을 도출하는 기법 앙상블 학습의 유형 보팅 (Voting) 배깅 (Bagging) 부스팅 (Boosting) 스태킹 1) 보팅 일반적으로 서로 다른 알고리즘을 가진 분류기의 결합을 통해 최종 예측 결과를 결정함 > 보팅 유형 > - 하드 보팅 : 예측한 결과값 중 다수의 분류기가 결정한 예측값을 최종 보팅 결과값으로 선정. > - 소프트부팅 : 분류기의 각 레이블 값 결정 확률을 모두 더하고 이를 평균낸 후에 확률이 가장 높은 레이블 값을 최종 보팅 결과값으로 선정. 2) 배깅 대부분 결정 트리 알고리즘을 기반으로 함 같은 유형의 알고리즘을 기반으로 하는 분류기를 사용하며, 샘플링 데이터셋을 다르게 학습을 시켜 보팅을 수행함 > 부트스트랩 (Bootstrap) 이란? >- 원래의 데이터 셋으로부터

CH 4. 분류 -1
1. 분류의 개요 - Classification 지도학습 : 명시적인 정답이 있는 데이터가 주어진 상태에서 학습하는 머신러닝 방식 → 학습 데이터로 주어진 데이터의 피처와 레이블 값(결정 값, 클래스 값)을 머신러닝 알고리즘으로 학습해 모델 생성, 생성된 모델에 새로운 데이터 값이 주어졌을 때 미지의 레이블 값을 예측하는 것 분류의 알고리즘 나이브 베이즈 : 베이즈 통계와 생성 모델에 기반 로지스틱 회귀 : 독립변수와 종속변수의 선형 관계성 기반 결정 트리 : 데이터 균일도에 따른 규칙 기반 서포트 벡터 머신 : 개별 클래스 간의 최대 분류 마진을 효과적으로 찾아주는 역할 최소 근접 (Nearest Neighbor) : 근접 거리를 기반 (KNN으로 많이 사용) 신경망 : 심층 연결 기반 앙상블 : 서로 다른(or 같은) 머신러닝 알고리즘 결합 앙상블 기법 분류에서 가장 각광을 받는 분야 중 하나, 정형 데이터의 예측

파이썬 머신러닝 완벽 가이드 - 5. Classification(2) (앙상블)
3. 앙상블 Ensemble : 여러 개의 분류기(classifier)를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법 → 보팅Voting, 배깅Bagging, 부스팅Boosting + 스태킹Stacking 보팅 : 서로 다른 알고리즘을 가진 분류기 결합 배깅 : 같은 유형의 알고리즘을 가진 분류기를 사용하지만, 데이터 샘플링을 다르게 가져감 부트스트래핑 Bootstrapping: 개별 분류기에게 데이터를 샘플링해서 추출하는 방식 데이터 세트 간의 중첩 허용 (cf. 교차검증은 중복 불허) ex) 10,000개의 데이터를 10개의 분류기가 배깅 방식으로 나눠도, 각 1,000개의 데이터 내에서 중복된 데이터가 있을 수 있음 부스팅 : 여러 개의 분류기가 순차적으로 학습을 수행하되, 앞의 분류기의 틀린 예측에 대해서 다음 분류기에는 가중치를 부여하면서 학습과 예측을 진행하는 방식 대표

[Boostcamp AI Tech] Context-aware Recommendation
Context-aware Recommendation 00. 학습 내용 Context-aware Recommendation에 대하여 학습 Factorization Machine에 대하여 학습 Field-aware Factorization Machine에 대하여 학습 Gradient Boosting Machine에 대하여 학습 01. Context-aware Recommendation 우리가 앞서 배운 MF, NCF 등의 모델은 유저 - 아이템 상호작용 정보를 사용하는 모델임 그런데 이러한 모델들은 유저의 데모그래픽이나 아이템의 카테고리 및 태그 등 여러 특성(feature)들을 추천 시스템에 반영할 수 없다는 단점이 존재함 따라서 상호 작용 정보가 아직 부족한 아이템

[ML]앙상블 학습, Random Forest, GBM
저번 글에서는 분류의 종류에 대한 간략한 소개와, 그 중에서도 결정트리에 관해 소개했었다. 이번에는 앙상블 학습의 유헝과 그 중에서 대표적인 몇 가지 방법에 대해 알아보도록 할 것이다. 앙상블 학습의 유형은 전통적으로 보팅(Voting), 배깅(Bagging), 부스팅(Boosting)의 세 가지로 나눌 수 있으며, 이외에도 스태킹을 포함한 다양한 기법들이 있다. 오늘은 배깅의 대표적 방법인 Random Forest와 부스팅 중 하나인 GBM에 대해 더 자세히 공부할 것이다.(목차는 저번 CH4.분류의 소분류와 이어진다.) 03. 앙상블 학습 1. 앙상블 학습 개요 Ensemble Learning: 여러 개의 분류기(Classifier)를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도축하는 기법 마치 집단 지성으로 어려운 문제를 쉽게 해결하는 것처럼 과 비지도 학습(Unsupervised learning)으로 구분됩니다. > >이 둘의 차이점은 학습 결과에 대한 사전 지식이 존재의 유무입니다. 학습 결과에 대한 사전 지식이 있으면 지도 학습 기법을 활용하면 예측과 분류가 가능하고, 학습 결과에 대한 사전 지식이 없으나 가지고 있는 데이터를 통해 유의미한 지식을 얻고자 하면 비지도 학습 기법을 활용하면 될 것 입니다. 3. 지도 학습(Supervised Learning) > #### Reference > [[ML] 머신러닝 시스템의 종류 (1) - 지도학습, 비지도학습, 준지도 학습,