# sklearn

135개의 포스트
post-thumbnail

[이어드림 스쿨 2기] 첫 고비를 맞이하다

# 그룹 스터디 시작! (4.19) 테스트를 통해 배정된 그룹 스터디 조가 처음 편성되었다. ZEP에서 첫 모임을 가지고 자기소개를 하고 그룹 스터디 방향과 의견을 이야기하는 자리였다. 어색한 기류가 있었지만 다들 똑같겠지 하는 마음으로 이야기했던 것 같다. 그러나

2023년 3월 20일
·
4개의 댓글
·

머신러닝 - 모델

사이킷런에서는 다양한 회귀, 분류 알고리즘을 제공하고 있다. 하나하나 차근차근 알아보도록 하자.

2023년 3월 19일
·
0개의 댓글
·

머신러닝 기본

머신러닝 기본 정리

2023년 3월 16일
·
0개의 댓글
·

머신러닝 - 개괄

머신러닝? ML(머신러닝)은 사용하는 데이터를 기반으로 학습 또는 성능 향상을 지원하는 시스템을 구축하는 데 초점을 맞추는 인공 지능(AI)의 하위 집합입니다.

2023년 3월 15일
·
0개의 댓글
·
post-thumbnail

머신러닝 정리(3)

MLP 란 여러 개의 퍼셉트론 뉴런을 여러 층으로 쌓은 다층신경망 구조입력층과 출력층 사이에 하나 이상의 은닉층을 가지고 있는 신경망이다.처음엔 퍼셉트론이라는 이진 분류기가 시작이었다.근데 이 퍼셉트론은 선형분류 밖에 하지 못했다.하지만 선형 분류로는 정확한 분류를 할

2023년 2월 28일
·
0개의 댓글
·
post-thumbnail

머신러닝 정리(2)

비선형분류모델로 많이 사용되는 분류기 중 하나이며 데이터에 대한 분류 이유를 설명할 수 있다는 특징을 가지고 있다. 동일한 데이터 셋에 대해 여러 개의 다른 구조의 트리 모델을 학습시킬 수 있다.의사결정나무 모델을 학습하는 알고리즘. (그리디한 알고리즘)그리디한 알고리

2023년 2월 28일
·
0개의 댓글
·
post-thumbnail

머신러닝 정리(1)

머신러닝에 사용되는 데이터는 그 값이 너무 크거나 작지 않고 적당한 범위 (-1에서 ~ 1사이)에 있어야 모델의 정확도가 높아진다고 알려져있다.값의 범위를 0 ~ 1로 변환시킨다ex) 결과 0 ~ 1로 변환 시킴 -> 중간에 큰 값이 있어도 균일하게 변환됨값의 볌위를

2023년 2월 28일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 5장_회귀 - 다항 회귀

회귀가 독립변수의 단항식이 아닌 2차, 3차 방정식과 같은 다항식으로 표현되는 것을 다항(Polynomial) 회귀라고 한다.한 가지 주의할 것은 다항 회귀를 비선형 회귀로 혼동하기 쉽지만, 다항 회귀는 선형 회귀라는 점이다.회귀에서 선형 회귀/비선형 회귀를 나누는 기

2023년 1월 14일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 5장_회귀 - 선형 회귀

LinearRegression()예측값과 실제 값의 RSS를 최소화해 OLS(Ordinary Least Squares) 추정 방식으로 구현한 클래스입력 파라미터fit_intercept: 불린 값, intercept(절편) 값 계산 여부 지정 (default=True)n

2023년 1월 13일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 5장_회귀 - 개요

📌 회귀 (Regression) ✅ 소개 데이터 값이 평균과 같은 일정한 값으로 돌아가려는 경향을 이용한 통계학 기법 여러 개의 독립변수와 한 개의 종속변수 간의 상관관계를 모델링하는 기법을 통칭 머신러닝 관점에서 보면 독립변수는 피처에 해당되며 종속변수는 결

2023년 1월 12일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 4장_분류 - 스태킹 앙상블

개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는 점에서 배깅(Bagging) 및 부스팅(Boosting)과 공통점을 가진다.하지만 가장 큰 차이점은 개별 알고리즘으로 예측한 데이터를 기반으로 다시 예측을 수행한다는 것이다.즉, 개별 알고리즘의 예측 결과 데

2023년 1월 11일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 4장_분류 - 실습

레이블이 불균형한 분포를 가진 데이터 세트를 학습시킬 때 예측 성능의 문제가 발생할 수 있다.이상 레이블을 가지는 데이터 건수는 매우 적기 때문에 제대로 다양한 유형을 학습하지 못하는 반면에 정상 레이블을 가지는 데이터 건수는 매우 많기 때문에 일방적으로 정상 레이블로

2023년 1월 10일
·
0개의 댓글
·
post-thumbnail

[Machine Learning] 사이킷런(sklearn) - 기초

머신러닝 중 사이킷런(sklearn)을 배우고 기본 예제를 실행해보았습니다.

2023년 1월 10일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 4장_분류 - LightGBM

XGBoost와 함께 부스팅 계열 알고리즘에서 가장 각광을 받고 있다.(1) 트리 분할 방식일반 GBM 계열: 균형 트리 분할 (Level Wise)최대한 균형 잡힌 트리를 유지하면서 분할하기 때문에 트리의 깊이가 최소화될 수 있다.균형 잡힌 트리를 생성하는 이유는 오

2023년 1월 9일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 4장_분류 - XGBoost

트리 기반의 앙상블 학습에서 가장 각광받고 있는 알고리즘 중 하나뛰어난 예측 성능GBM 대비 빠른 수행 시간: 병렬 학습 가능과적합 규제 (Regularization): 과적합 규제 기능 제공나무 가지치기 (Tree pruning): 더 이상 긍정 이득이 없는 분할 가

2023년 1월 8일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 4장_분류 - GBM

📌 GBM (Gradient Boosting Machine) ✅ 개요 부스팅: 여러 개의 약한 학습기를 순차적으로 학습, 예측하면서 잘못 예측한 데이터에 가중치 부여를 통해 오류를 개선해 나가면서 학습하는 방식 (1) AdaBoost 개별 약한 학습기에 각각 가

2023년 1월 8일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 4장_분류 - 랜덤 포레스트

배깅의 대표적인 알고리즘앙상블 알고리즘 중 비교적 빠른 수행 속도를 가지고 있으며, 다양한 영역에서 높은 예측 성능을 보이고 있다.여러 개의 결정 트리 분류기가 전체 데이터에서 배깅 방식으로 각자의 데이터를 샘플링해 개별적으로 학습을 수행한 뒤 최종적으로 모든 분류기가

2023년 1월 8일
·
0개의 댓글
·

[머신러닝 완벽 가이드] 4장_분류 - 앙상블

여러 개의 분류기(Classifier)를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법다양한 분류기의 예측 결과를 결합함으로써 단일 분류기보다 신뢰성이 높은 예측값을 얻는 것이 목표대부분의 정형 데이터 분류 시에는 앙상블이 뛰어난 성능을 나타내

2023년 1월 7일
·
0개의 댓글
·
post-thumbnail

[인공지능] 사이킷런(scikit-learn) 시작(1)

scikit-learn 특징 다양한 머신러닝 알고리즘을 구현한 파이썬 라이브러리 심플하고 일관성 있는 API, 유용한 온라인 문서, 풍부한 예제 머신러닝을 위한 쉽고 효율적인 개발 라이브러리 제공 다양한 머신러닝 관련 알고리즘과 개발을 위한 프레임워크와 API 제공 많

2023년 1월 7일
·
0개의 댓글
·