profile
연구와 개발의 중간 어디쯤
태그 목록
전체보기 (17)cleansky(12)머신러닝(11)기계학습(10)인사이드 머신러닝(10)딥러닝(9)인공지능(8)Linear Regression(5)선형회귀(5)신호처리(5)FFT(4)데이터 분석(4)회귀모형(4)DFT(4)회귀모델(4)machine learning(4)Deep Learning(4)회귀분석(3)AI(3)푸리에 변환(3)Simple Linear Regression(2)SST(2)sse(2)FFT using IFFT(2)IFFT using FFT(2)다중회귀(2)다항회귀(2)분산분석(2)결정계수(2)통계분석(2)SSR(2)Ridge Regression(2)정규화(2)PR 곡선(1)receiver operating characteristics(1)Goertzel algorithm(1)ROC 곡선(1)greatest eigenvalue(1)분산-편향 딜레마(1)분류기 성능 지표(1)편향과 분산(1)재현율(1)주파수 분석(1)model complexity(1)confusion matrix(1)SMOTE(1)Correlation Distance(1)단순회귀모델(1)diagonal loading(1)True Negative(1)DFT matrix(1)다중공선성(1)One-sided selection(1)ROC(1)Lasso(1)Mahalanobis distance(1)STFT(1)Regularization(1)matrix inversion(1)PR curve(1)오차행렬(1)빅데이터(1)LDA(1)거리측도(1)고유값 찾기(1)MSE contour(1)DSP(1)데이터 스케일링(1)DFT Properties(1)overfitting(1)Linear Algebra(1)linear_model(1)bias-variance tradeoff(1)random under sampling(1)statistical data analysis(1)sensitivity(1)임베디드(1)F분포(1)Normalizer(1)standardzation(1)VIF(1)외적(1)cross product(1)Elastic-Net(1)False Positive(1)알고리즘(1)min-max scaling(1)Fisher's Discriminant Analysis(1)K-nearest neighbor(1)Regression(1)KNN(1)specificity(1)RobustScaler(1)regression model(1)외적 면적(1)precision(1)MaxAbsScaler(1)ANOVA(1)Cosine Similarity(1)least square(1)오버샘플링(1)분류(1)True Positive(1)ElasticNet(1)규제(1)분산팽창지수(1)f1 score(1)maximum eigenvalue(1)sliding DFT(1)MSE(1)resampling(1)auc(1)Polynomial Regression(1)Minkowski Distance(1)혼동행렬(1)Bias(1)표준화(1)정밀도(1)borderline SMOTE(1)MSR(1)볼록껍질(1)oversampling(1)adjusted R squared(1)수정결정계수(1)power method(1)undersampling(1)이진분류(1)Chebyshev Distance(1)경사하강법(1)Euclidean distance(1)accuracy(1)FDA(1)F검정(1)Weighted KNN(1)특이도(1)Time-Reversal(1)Spearman Correlation Distance(1)유사도측도(1)Manhattan Distance(1)R-squared(1)TOMEK link(1)MinMaxScaler(1)False Negative(1)Eigenvector(1)machine learing(1)Ridge(1)데이터 전처리(1)Multiple Linear Regression(1)벡터 CW CCW(1)벡터(1)partial FFT(1)Eigenvalue(1)K-최근접이웃알고리즘(1)언더샘플링(1)underfitting(1)machine learining(1)Condensed Nearest Neighbor(1)벡터 외적 크기(1)least square estimation(1)Fourier Transform(1)Complex conjugate(1)LS estimation(1)signal-processing(1)minimum eigenvalue(1)Fourier(1)역행렬(1)Gradient Descent(1)MVDR(1)area under curve(1)IDFT(1)smallest eigenvalue(1)eigenvalue decomposition(1)convex hull 예제(1)표준오차(1)인사이드머신러닝(1)power iteration(1)차원축소(1)불균형 데이터(1)선형판별분석(1)ADASYN(1)pruned fft(1)Linear Discriminant Analysis(1)IFFT(1)convex-hull(1)Z-score(1)Variance(1)과대적합(1)편향-분산 트레이드오프(1)bias-variance dilemma(1)imbalanced data(1)StandardScaler(1)Dimension Reduction(1)최적화(1)회귀(1)과소적합(1)precision-recall tradeoff(1)고유벡터(1)LASSO regression(1)multicoliearity(1)recall(1)고유값(1)컨벡스헐(1)차원의 저주(1)

[인사이드 머신러닝] Bias-Variance Trade-Off

좋은 모델이란 무엇인가? 이 질문에 답하기란 생각보다 쉽지 않다. 그렇지만 좋은 모델들이 공통적으로 갖추어야할 공통적인 덕목(?)이 있는데 그것은 바로 다음과 같다.현재 주어진 데이터, 즉 훈련 데이터를 잘 설명할 수 있다.미래에 주어질 데이터, 즉 테스트 데이터도 잘

2021년 9월 27일
·
0개의 댓글

[인사이드 머신러닝] EVD 없이 Eigenvalue 찾기: Power Iteration (Power Method)

크기가 $n \\times n$인 임의의 행렬 $\\mathbf{A}$에 고유값 분해(Eigenvalue Decomposition, EVD)를 적용하면 다음과 같은 관계식을 얻을 수 있다.$$\\tag{1}\\mathbf{A} = \\mathbf{Q}\\Lambda \

2021년 9월 27일
·
0개의 댓글

[인사이드 머신러닝] 차원축소: 선형판별분석 (Linear Discriminant Analysis, LDA)

LDA는 전통적인 선형 학습법이며, 이진 분류 문제에서 Ronald A. Fisher가 가장 먼저 사용하였기 때문에 Fisher's discriminant analysis (FDA)라고도 불린다. 아이디어는 간단하지만 강력하다. 훈련 데이터를 어떠한 직선 위에 투영시킨

2021년 8월 31일
·
0개의 댓글

[인사이드 머신러닝] 다항회귀모델 (Polynomial Regression Model)

우리는 앞에서 단순회귀모델과 다중회귀모델에 대하여 살펴보았다. 둘의 가장 큰 차이는 독립변수의 수가 하나이냐 혹은 둘 이상이냐는 것인데 다음과 같이 하나의 독립변수에 대하여 고차 다항식으로 표현되는 모델의 회귀선은 어떻게 구할 수 있을까?$$\\tag{1}y = \\b

2021년 8월 23일
·
0개의 댓글

[인사이드 머신러닝] 단순회귀모델: 회귀선의 적합도 평가

아래의 내용을 읽어보기 전에 이전 포스트(\[인사이드 머신러닝] 단순회귀모델: 회귀계수의 추정)를 먼저 보는 것이 전체적인 흐름을 이해하는데 도움이 됩니다.이전 포스트에서 살펴본 방식대로 단순회귀모델에서 회귀직선을 추정한 후에는 그 결과가 얼마나 타당한지 검토하여야 한

2021년 8월 13일
·
0개의 댓글

[인사이드 머신러닝] 단순회귀모델: 회귀계수의 추정

사전적으로 회귀(Regression)란 말은 '다시 원래 자리로 돌아간다'는 뜻으로 이를 통계 분석에 처음 사용한 사람은 영국의 우생학자 Galton으로 알려져있다. 그는 완두콩 실험을 통해 부모콩의 무게를 $$x$$축으로 하고 자식콩의 무게를 $$y$$축으로 산점도(

2021년 8월 12일
·
0개의 댓글

[인사이드 머신러닝] 불균형 데이터 샘플링

모델을 학습시킴에 있어 클래스 간 샘플 수의 차이가 너무 크게 되면 분류기는 더 많은 샘플이 존재하는 클래스로 편향된다. 이 경우 전체적인 정확도는 높게 나올지라도 샘플 수가 적은 클래스에 대한 재현율(recall)이 작아지게 된다. 이러한 문제를 데이터 불균형 문제

2021년 8월 10일
·
0개의 댓글

[인사이드 머신러닝] 데이터 스케일링

보통 학습에 사용될 데이터들은 각 특성마다 데이터가 가질 수 있는 값이 범위가 다르다. 그리고 대부분의 학습 알고리즘은 특성 간 데이터 범위가 다를 경우 잘 동작하지 않는다. 그 이유는 간단한다. 예를 들어, 나이와 재산이라는 특성이 있을 때, 재산의 값이 나이보다 훨

2021년 8월 6일
·
0개의 댓글

FFT로 IFFT 변환하기 - (2): 4가지 방법

본 포스트를 보기 전에 이전 포스트를 먼저 보시면 도움이 됩니다.본 포스트를 작성하는데 아래 내용을 참고하였습니다. 그리고 본 포스트에 사용되는 모든 이미지는 1번 링크에서 가져왔습니다.1\. Four Ways to Compute an Inverse FFT Using

2021년 8월 4일
·
0개의 댓글

Cross Product의 응용: Convex Hull 알고리즘

알고리즘의 목적 평면 상에서 고정된 격자 구조가 아닌 임의의 지점에 분포한 유한한 점들의 집합(즉, 포인트 군)의 경계를 찾는 알고리즘이다. 2차 평면상에서 여러 개의 점이 있을 때 그 점 중에서 일부를 이용하여 볼록 다각형을 만들고, 볼록 다각형 내부에 포인트 군의

2021년 8월 4일
·
0개의 댓글

Sliding DFT 알고리즘

어떠한 입력 시퀀스가 있다고 하자. 입력 시퀀스는 시계열 데이터 혹은 특정 차원으로 uniform sampling된 신호이다. 만약, non-uniform sampling을 사용한다면 적절한 위치에 0을 삽입하면 된다. 여기서 우리는 편의상 입력 시퀀스를 시계열 데이터

2021년 8월 3일
·
0개의 댓글

FFT로 IFFT 변환하기 - (1): Time-Reversed/Complex Conjugated Input

DFT(=FFT)는 데이터 분석 및 알고리즘 개발에 가장 흔히 사용되는 알고리즘 중 하나이다. 본 포스팅에서는 DFT의 기초적인 이론이나 주요 특성 등을 다루지 않는다. 학교를 졸업한 지 오래되서인지 개발을 하다보면 아주 기본적인 내용임에도 불구하고 부호가 헷갈린다거나

2021년 8월 2일
·
0개의 댓글

메모리 효율적으로 Partial FFT (Pruned FFT) 계수값 구하는 방법

Partial FFT의 사용 목적 FFT 알고리즘은 효율적으로 DFT를 수행하는 알고리즘으로 매우 광범위한 분야에서 활용되고 있다. FFT의 출력 샘플 크기는 알고리즘적으로 입력 샘플 크기와 같거나 큰 2^n으로 결정된다. 그러나 많은 어플리케이션에서 전체 스펙트럼

2021년 7월 30일
·
0개의 댓글