profile
함께 공부해요!
post-thumbnail

EfficientNet

📖 \*\*EfficientNet은 2019 CVPR에 발표된 MnasNet: Platform-Aware Neural Architecture Search for Mobile의 저자인 Mingxing Tan과 Quoc V. Le가 쓴 논문이며 Image Classifi

2022년 7월 7일
·
0개의 댓글
·

CNN (합성곱 신경망)

📖 CNN은 이미지를 분석하기 위한 패턴을 찾는데 유용한 알고리즘으로 널리 알려진 이미지 처리 기법입니다. 이번 포스팅에선 CNN(합성공 신경망)에 대해 기초부터 쉽게 정리해 보겠습니다.Convolution Neural Network의 약자로 일반 Deep Neura

2022년 7월 1일
·
0개의 댓글
·

Anomaly Detection - Isolation Forest

📖 이번 포스팅은 이전 포스트처럼 고려대학교 김성범 교수님의 강의영상을 참고하여 모델 기반 이상치 탐지 알고리즘 중 Isolation Forest에 대해 다루고자 합니다.정상 데이터로부터 학습한 모델을 기반으로 각 객체의 정상/이상 여부를 판단하는 방법론입니다.여러

2022년 6월 30일
·
0개의 댓글
·

Anomaly Detection - Local Outlier Factor (LOF)

📖 이번 포스팅은 고려대학교 김성범 교수님의 강의영상을 참고하여 밀도기반 이상치 탐지 알고리즘 중 LOF에 대해 소개를 드리고자 합니다. 우선 Anomaly Detection이 무엇인지에 대해 알아봅시다.쉽게 말해, 데이터 안에서 Normal(정상) sample과 A

2022년 6월 24일
·
0개의 댓글
·

머신러닝 각 알고리즘 장단점 비교

|제목|내용|설명| |------|---|---| |테스트1|테스트2|테스트3| |테스트1|테스트2|테스트3| |테스트1|테스트2|테스트3|

2022년 4월 10일
·
0개의 댓글
·
post-thumbnail

CatBoost

📖 이번 포스팅에서는 Boosting 계열의 알고리즘 중에서 GBM(Gradient Boosting Machines) 알고리즘에 기반하여 만들어진 CatBoost 알고리즘에 대해 알아보려고 합니다. CatBoost는 2017년 논문에서 소개되었으며 현재까지 현업에

2022년 4월 7일
·
0개의 댓글
·
post-thumbnail

AdaBoost와 GBM

📖 앙상블 학습의 유형은 보팅(Voting), 배깅(Bagging), 부스팅(Boosting), 스태킹(Stacking) 등이 있습니다. 이번 포스팅에서는 부스팅 알고리즘 중 AdaBoost와 GBM에 대해 알아보고자 합니다. 우선 부스팅의 원리부터 차근차근 알아봅시

2022년 3월 30일
·
0개의 댓글
·

차이검정 - T 검정

📖 전체집단을 모두 조사하는것은 현실적으로 불가능함으로 적절한 표본집단을 지정하여 이 표본집단에서 평균, 표준편차와 같은 통계량을 구한 뒤 이를 통해 모집단의 모수를 추정합니다. 이 때 널리 쓰이는 통계적 검정 방법들을 딱 한 번의 정리를 통해 이해를 돕겠습니다.사람

2022년 2월 22일
·
0개의 댓글
·

시계열 군집

📖 시계열 데이터를 계층적, 분할적 군집화하기 위한 방법을 간단하게 코드 위주로 각각 알아봅시다. 군집화 가능한 시계열 데이터의 형태로 변환 기존 데이터는 각 컬럼이 각 집단의 시계열 정보를 가지고 있습니다. 이를 전치시켜 각 로우데이터가 각 집단 별 시계열 데이터

2022년 2월 15일
·
0개의 댓글
·

시계열 분석 기본 다지기

📖 시계열의 기본 요소부터 심화적인 부분까지 공부해봅시다.

2022년 2월 1일
·
0개의 댓글
·
post-thumbnail

차원 축소 - PCA, FA

주성분 분석(PCA, Principal Component Analysis)란? 기본적으로 PCA는 선형 차원 감소 기법 (알고리즘)입니다. 고차원의 데이터일수록 표본의 밀도는 떨어지고, 높은 과대적합 위험과 계산 비용, 낮은 모델 성능 등 소위 차원의 저주 문제가 뒤

2022년 1월 6일
·
0개의 댓글
·