# R

List데이터에서 데이터 추출
List Data는 모든 데이터유형의 데이터구조를 원소로 가질 수 있음List Data는 list()함수를 이용하여 선언 할 수 있음List를 만들어 보겠습니다.문자열과, 벡터, matrix, array, data.frame으로 배웠던 데이터 구조를 써서 만들었습니다.
XGBoost
XGBoost regressionSources: https://www.datatechnotes.com/2020/08/regression-example-with-xgboost-in-r.html

[R] R 설치와 R 스튜디오 설치 및 간단 사용법 - R 의 시작
R 을 해보자.R 홈페이지쭉내리면영남대의 KOREA여기서 환경선택을 또 하네 윈도우선생님이 말씀하신 BASE 가 드디어 나온다선생님이 추천하신 TRANSLATIONS 체크해제특별한 언급이 없으시니 기본값을 사용하자바탕화면에 아이콘 만들어지는 거 싫어서 아이콘 생성 체크
공백 채우기
sampleData:https://raw.githubusercontent.com/SangbuemCho/animalStatisticsDS/main/sampleDat.txt

Vector Date Type 사용법, R의 Matrix, Array 데이터 구조
단일차원(1차원)의 값을 가진 데이터를 의미합니다.동일한 데이터 유형의 스칼라 데이터들이 일률적으로 입력된 형태입니다.벤터 선언시 c() 를 선언 해줘야합니다.떨어진 값을 추출할 때는 c(,)로 표기 해야합니다.연속된 숫자일 경우 c(:)를 이용해서 가져옵니다.
통계학개론
as.factor(1:4)= 1 2 3 4 각 숫자 객체를 각각의 카테고리로 인식as.character(1:4) = "1" "2" "3" "4" string형식으로 인식rep(10,5) repeat함수 10을 5번 반복행렬 만들기 n<-rep(10:5)o<-
Data Preprocessing Tools
python Importing the libraries Importing the dataset Taking care of missing data Encoding categorical data 범주형 데이터 인코딩 Encoding the Independent Variable 독립변수 : 연구자가 의도적으로 변화시키는 변수 , 종속변수에 영향을 주는 변...
RVAideMemoire 패키지 설치
처음 RVAideMemoire 패키지 설치시 오류가 발생함mixOmics 패키지가 없어서 오류가 발생함설치 과정1) devtool 설치2) devtool을 이용하여 github에서 mixOmics 설치3) RVAideMemoire 설치R 코드RVAideMemoire 패
서포트 벡터 머신(Support Vector Machine)
서포트 벡터 머신(Support Vector Machine)은 고차원의 공간에서 최적의 분리 초평면을 찾아 이를 이용해 분류와 회귀를 수행하는 알고리즘이다.서포트 벡터는 주어진 데이터 중에서 결정 경계와 가장 가까운 거리에 위치한 데이터들을 말한다. 마진은 결정 경계에
랜덤 포레스트(Random Forest)
랜덤 포레스트란? 랜덤 포레스트(Random Forest)는 배깅을 적용한 의사결정나무의 앙상블 알고리즘이다. 랜덤 포레스트는 나무가 아니라 모인 숲의 수준으로 하나의 트리 모델이 아닌 다수의 부트스트랩 표본으로 트리 모델을 만든 후 그 결과를 취합해 분류의 경우에는
부스팅(Boosting)
부스팅(Boosting)은 앙상블 모형 중 하나로 배깅이 부트스트랩 시 각 표본에 동일한 확률을 부여하는 것과 달리 잘못 분류된 표본에 더 가중치를 적용해 새로운 분류 규칙을 만들고, 이런 과정을 반복해 최종 모형을 만드는 알고리즘이다.AdaBoost, GBM 같은 알
배깅(Bagging)
배깅(Bagging)은 앙상블(Ensemble) 모형 중 하나이다.배깅은 Bootstrap Aggregation의 줄임말로 학습 데이터 셋으로부터 동일한 크기의 표본을 단순 랜덤 복원 추출해 여러 개 만들고, 각 표본에 대한 예측 모델을 생성한 후 결합해 최종 예측 모
의사결정나무(Decision Tree)
의사결정나무(Decision Tree)는 주어진 독립변수에 의사결정규칙을 적용해 나가면서 종속변수를 예측해 나가는 알고리즘이다. 분류와 회귀에 모두 사용할 수 있다. 종속변수에 따라 분류나무와 회귀나무로 구분된다. 의사결정규칙(가지분할)을 만들 때 기준이 될 독립변수
k-최근접 이웃(k-Nearest Neighbor)
k-최근접 이웃(k-NN)은 가장 간단한 머신러닝 알고리즘으로 새로운 데이터에 대해 이와 가장 거리가 가까운 k개의 과거 데이터의 결과를 이용해 다수결로 분류하는 방법이다.분류와 회귀에 모두 사용할 수 있다. 또한 새로운 데이터에 더 가까운 이웃일수록 더 먼 이웃보다
나이브 베이즈(Naive Bayes)
나이브 베이즈(Naive Bayes)는 베이즈 정리를 적용한 확률 분류 기법이다. 베이즈 정리는 조건부 확률을 구하는 공식으로 생각하면 된다. 조건부 확률이란 사건 B가 일어났다는 조건하에 사건 A가 일어날 확률을 $P(A|B)$ 라고 한다. $P(A|B)=P(A\\c