# LightGBM

28개의 포스트

lightgbm 설치 에러

lightGBM 설치에러:해결방법:(iTerm)

2023년 10월 9일
·
0개의 댓글
·
post-thumbnail

LightGBM

수형도에 기반한 알고리즘인 결정 트리와 그 학습 방향 및 앙상블 기법에 관하여 다룹니다.

2023년 5월 30일
·
1개의 댓글
·
post-thumbnail

머신러닝 모델_XGBoost_LightGBM

두 모델에 대해 알기 전에 먼저 GBM이란?GBM(Gradient Boost Machine), 앙상블 머신러닝 기법 중의 하나로 부스팅 기법을 사용한다. 경사 하강법(Gradient Descent)를 이용해 가중치를 업데이트 해 label값과 가까워질 때까지 여러 모델

2023년 2월 23일
·
0개의 댓글
·
post-thumbnail

CH 4. 분류 -1

지도학습 : 명시적인 정답이 있는 데이터가 주어진 상태에서 학습하는 머신러닝 방식→ 학습 데이터로 주어진 데이터의 피처와 레이블 값(결정 값, 클래스 값)을 머신러닝 알고리즘으로 학습해 모델 생성, 생성된 모델에 새로운 데이터 값이 주어졌을 때 미지의 레이블 값을 예측

2023년 1월 9일
·
0개의 댓글
·
post-thumbnail

[kaggle] - 향후 판매량 예측

캐글의 안전 운전자 예측 경진대회 'Predict Future Sales' compeition에 참가해 다양한 feature engineering을 시도해보았다.과거 판매 데이터를 바탕으로 향후 판매량을 예측하는 회귀 문제로, 독특하게 train data외에 3가지 데

2022년 11월 29일
·
0개의 댓글
·
post-thumbnail

[kaggle] - 안전 운전자 예측

Intro 캐글의 안전 운전자 예측 경진대회 'Porto Seguro's Safe Driver Prediction' compeition에 참가해 다양한 모델링 기법을 연습해보았다. Porto Seguro라는 브라질의 보험사에서 제공한 고객 데이터를 활용해 운전자가 보험

2022년 11월 26일
·
0개의 댓글
·
post-thumbnail

[Day 52] lightgbm

11.24.

2022년 11월 24일
·
0개의 댓글
·
post-thumbnail

[혼자 공부하는 머신러닝+딥러닝] - CH.5-3 Tree Ensemble

앙상블 학습: 더 좋은 예측 결과를 만들기 위해 여러 개의 모델을 훈련하는 머신러닝 알고리즘랜덤 포레스트: 대표적인 결정 트리 기반의 앙상블 학습 방법, 부트스트랩 샘플을 사용하고 랜덤하게 일부 특성을 선택하여 트리를 만듦엑스트라 트리: 랜덤포레스트와 비슷하게 결정 트

2022년 11월 15일
·
0개의 댓글
·
post-thumbnail

[MachineLearning] PUBG 승률 예측 머신러닝 모델링 - 배린이 탈출 프로젝트

PUBG Finish Placement Prediction 캐글 대회였던 PUBG 최종 승자 예측의 데이터를 활용하여 배그 초보자들에게 고수들이 어떻게 행동하는지를 데이터 근거와 함께 조언을 주려는 목적으로 ML프로젝트를 진행하였습니다.

2022년 10월 28일
·
0개의 댓글
·
post-thumbnail

파이썬 머신러닝 완벽 가이드 - 5. Classification(2) (앙상블)

: 여러 개의 분류기(classifier)를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법→ 보팅Voting, 배깅Bagging, 부스팅Boosting + 스태킹Stacking보팅 : 서로 다른 알고리즘을 가진 분류기 결합배깅 : 같은 유형의

2022년 9월 29일
·
0개의 댓글
·
post-thumbnail

m1 mac 주피터노트북에서 lightgbm 설치 안 될 때

보통 주피터노트북에서 모듈을 설치할 때 가장 흔히 사용하는건이거다 하지만 lightgbm도 이렇게 설치하면 안 된다이렇게 하면 나같은 경우 이런 에러가 떴다이럴 경우 여러분의 터미널로 가야한다터미널로 가서 설치해야한다여러분의 m1 맥에 homebrew가 설치돼있다고 가

2022년 9월 24일
·
0개의 댓글
·

Boosting

실제로 캐글에서는 XGboost라는 라이브러리를 사용한 대회 참여나 다양한 시도들이 이루어지고 있습니다. 자매품으로는 Catboost나 조금 더 가벼운 앙상블 모델인 LightGBM이 있습니다.

2022년 8월 21일
·
0개의 댓글
·

Install LightGBM

그리고 CUDA 11.0 이상의 버전이 설치되어 있어야 한다고 함.Error Target "lightgbm_objs" of type OBJECT_LIBRARY may not be linked into cmake 버전이 안맞아서 그런다. 아래 링크에서 3.22버전으로

2022년 5월 16일
·
0개의 댓글
·

Model

특징 \- 이상치에 강한 모델임 \-tree를 분리하는 과정에서 feature selection이 자동으로 사용됨 \- 연속형과 범주형 변수를 모두 다루기 때문에 사전 데이터 준비가 많이 필요하지 않다 \- 결측값을 하나의 가지로 다룰 수 있기 때문에 이를 예측에

2022년 1월 14일
·
0개의 댓글
·
post-thumbnail

LightGBM feature importance

Kaggle, Dacon 또는 실제 모델링을 하다보면 feature를 여러개 추가해서 학습을 하게 된다. 이때, feature가 너무 많으면 오히려 학습에 방해되는데 필요없는 feature들은 제거하는 것이 좋다. 이때 어떤 feature를 살리고 버려야 할까?

2021년 7월 18일
·
1개의 댓글
·
post-thumbnail

LightGBM parameter tuning-(2) (with optuna)

LightGBM 하이퍼파라미터를 튜닝하기는 사실 어렵다. 워낙 LGBM이 파라미터 튜닝에 민감하기도 하고, 신경쓸게 너무 많다. 인턴을 하면서 알게된건 3가지 방법 순서대로 파라미터 튜닝을 했다.어쩔 수 없다. 학습이 빠르고 정확한 결과를 얻기 위해서 lightgbm을

2021년 7월 18일
·
2개의 댓글
·
post-thumbnail

LightGBM parameter tuning-(1)

하이퍼파라미터 종류와 뜻 docs 링크하이퍼파라미터 튜닝 docs 링크LightGBM은 leaf-wise로 트리를 탐색하므로 데이터가 적을 경우 오버피팅이 일어날 수 있다. 이를 방지하기 위해 하이퍼파라미터에 꽤나 민감하다.학습속도, 정확도, 오버피팅은 서로 trade

2021년 7월 18일
·
0개의 댓글
·