# Feature Extraction

6개의 포스트

[ML] dimensionality reduction (차원 축소)

dimensionality reduction (차원 축소) 모델 복잡도를 줄이고 overfitting 을 방지하는 방법 중 하나 feature selection : original feature 에서 일부를 선택 feature extraction: original feature 에서 새로운 feature 생성 The curse of dimensionality (차원의 저주) feature (=dimension) 이 너무 많으면 알고리즘이 복잡 & 성능 저하 dimension (차원) 이 증가할수록 데이터간 거리가 멀어짐 (데이터 희소성) overfitting 발생 가능성 증가 sequential feature selection 초기 $d$ 차원 feature 를 $k<d$ 인 $k$ 차원의 feature subspace (부분 공간) 으로 축소 greedy search 알고리즘. 주어진 문제에 **가

2023년 8월 23일
·
0개의 댓글
·
post-thumbnail

[Data Preprocessing] Feature Extraction

🕵🏻‍♀️ Feature Extraction feature engineering에서의 feature extraction 기존 feature에 기반하여 새로운 feature 생성 📜 과정 ◽ 데이터 로드 ** 타이타닉 데이터셋 다운로드 ◽ 데이터 확인 ◽ 데이터 분리 ◽ Data Cleaning 필요없는 데이터 제거 결측치 제거 ◽ Feature Extraction 수치형 데이터 타입 변환 ||passengerid|survived|pclass|age|sibsp|parch|fare| |:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:| |count|891.000|891.000|891.000|714.000|891.000|891.000|891.000| |mean|446.000|

2023년 2월 21일
·
0개의 댓글
·
post-thumbnail

차원축소(Dimension Reduction)

정보 손실은 최소화(가능한 많은 정보를 포함)하면서 중요한 변수만 선택할 수 있다면 어떨까요?머신러닝에서는 이를 위한 다양한 차원 축소 기술들을 연구 중입니다. > 차원 축소란 고차원 원본 데이터의 의미 있는 특성을 이상적으로 원래의 차원에 가깝게 유지할 수 있도록 고차원 공간에서 자차원 공간으로 데이터를 변환 하는 것을 말합니다. > > - 직관적으로 설명하자면 변수를 줄이는 것입니다. > - 차원의 저주를 방지할 수 있습니다. 차원축소의 목적(필요성) 기계학습 측면에서는 차원 축소가 차원의 저주 (Curse of Dimensionality)를 피할 수 있습니다. 과적합 (Overfitting) 을 방지하는데에 효과적입니다. 과적합이 발생하면, 분석 모형의 신뢰도를 떨어뜨릴 수 있습니다. 정보 손실의 최소화하여 가능한 많은 정보를 포함하고 데이터 설명에 중요한 변수만 선택합니다. 리소스를 감소시켜 모델의 성능을

2022년 10월 25일
·
0개의 댓글
·
post-thumbnail

[딥러닝] CNN 간단 정리 !! (Feature extraction,filter, stride,padding,pooling)

오늘은 드디어 CNN에 대해 설명해보려고 합니다 ! CNN은 보통 이미지를 분석할 때 많이 사용하는데요. 그 이유는 Dense Layer로 하기에는 너무 빡세서...? 예를 들어서 500X500 짜리의 이미지를 분석하려고 해도 Flatten하면 무려 25만개로 늘어납니다...! 엄청난 계산량이 필요해지기 때문에 CNN을 사용하는 것이죠. 게다가 이미지의 위치가 중앙에 있는 것이 아니기 때문에, 즉. 정형화 되어 있지 않아서 CNN을 사용해야 합니다! CNN 구조 딥러닝에서의 CNN에서 가장 중요한 것은 스스로 feature를 찾는 것입니다! 위의 그림이 딥러닝에서 CNN의 구조입니다. Feature Extraction 부분에서 스스로 특징을 찾아내는 학습을 수행합니다. 입력층 근처에서는 보다

2022년 7월 14일
·
0개의 댓글
·
post-thumbnail

[컴퓨터 비전] 이미지 피쳐 추출 (Feature Extraction) - Resnet50

수행한 프로젝트의 구조는 아래와 같다. 나는 여기서 이미지 피쳐 추출 및 클러스터링 기술 부분을 맡아 수행했다. * Feature ? * Feature는 어떤 데이터에서 의미있는 필요한 정보 Feature extraction은 feature selection과 유사하지만 차이가 있다. Feature selection Feature selection은 해당 데이터의 특징 집합에서 일부를 제거하거나 선택하여 간결해진 특징 집합을 뽑아내는 것이다. 이 경우에 특징의 중요도를 따져서 필요한 특징을 선택한다. Feature extraction 반면에 Feature Extraction은 기존의 특징 집합에서 조합을 통해서 새로운 특징을 생성하는데 고차원의 Feature를 저차원의 feat

2022년 7월 2일
·
0개의 댓글
·
post-thumbnail

Medical Image Segmentation - Principle Component Analysis (PCA)

1. Dimensionality Reduction PCA는 데이터의 차원을 줄일 때 사용한다. 위 그림은 2D data를 x1 축을 기준으로 projection한 모습이다. 이 경우, 데이터가 골고루 분산 되지 않는 문제가 있다. PCA의 목적은 projection된 data의 분산 값을 최대화 하는 축을 찾는 것이 목적이다. 2. Principal Component Analysis(PCA) Data $X$를 unit vector $\vec{e}$에 projection 했을 때, $X\vec{e}$는 projection된 data이며 $Var[X\vec{e}]$는 projection된 data의 분산 값이다. 그리고 식으로 표현하면 $

2021년 8월 25일
·
0개의 댓글
·