년도 추출은 전에 해봤던 거였는데 기록을 안해놓으니 까먹어서 찾는데 또 시간을 버렸다. 기록의 중요성을 깨닫는 시간..
NaN은 프로그래밍 설계상 Float type임read_csv_docsread_csv의 names 매개변수로 column추가apply() 함수내가 만든 함수의 내용을 일괄적용 가능df_cp = df를 한 후에, df_cp를 작업하면 메모리 주소만 할당된 얕은 복사이기
기본적인 파라미터axis = 접합할 기준을 선택한다. axis=0(row)행 기준, axis=1(column)열 기준join = 'outer'(default) 합집합, 'inner' 교집합 default값은 'outer' 이다.ignore_index = False(de
밑이 $e$ 인 지수 함수 $ex$ 의 도함수는 $ex$ 자신이 된다. $ex$ 를 $exp(x)$로 쓰기도 한다. 임의의 지수함수 $ax$ 는 자연로그 $ln$ 을 사용하여, $e^{lna^x}=e^{xlna}$ 로 쓸 수 있다. 따라서, 일반적인 지수함수 $ax$
느티나무와 왕벚나무 평균 데이터의 가설검정$H0=μ1=μ2$$H1=μ1\\not=μ2$✅귀무가설느티나무와 왕벚나무의 평균수는 같을 것이다. (차이가 없을 것이다)✅대립가설느티나무와 왕벚나무의 평균수는 다를 것이다.
위의 데이터 프레임 group by() 활용해서 '시' 컬럼을 기준으로 합친 데이터 프레임을 만들어보자. 나머지 컬럼의 값은 합산으로 적용out :시가 인덱스 컬럼으로 자리잡고 있는 다음과 같은 형태로 출력할 수 있다.참고https://rfriend.tisto
1. 데이터 프레임 샘플링 2. 신뢰구간 구하기 3. 그래프 에러바 4. seaborn 에러바 사용 5. 큰수의 법칙 6. 중심 극한 가설(CLT)
1. 범주형 데이터 시각화 2. 수치형 데이터 시각화 with seaborn barplot
1. numpy 기본연산 2. Norm 3. 평균제곱오차, 평균절대오차 4. 행렬식
1. 공분산 2. 상관계수 3. 계수 4. 3D 그래프
PCA
1. K-means clustering 2. Clustering이 진행된 label값 시각화(bar plot) 비교
1. 엘보우 기법 (Elbow method) 2. 실루엣 기법 (Silhouette method)
sklearn linear regression
two feature Multi linear regression
1. pandas_profiling.ProfileReport 2. Ridge Regression 3. 범주형 데이터 형태 비교 ETC - 데이터 분석의 전체적인 흐름 - Type of error 복습
1. 중복값 확인 2. Logistic Regression 2-1. 이상치 제거 2-2. 파이프라인 2-3. RidgeCV를 사용한 최적의 C값 찾기 3. 회귀계수 시각화 ETC (Scaler)
1. 결정 나무의 분류 with Pipe line 1-1. 파이프 라인 결정나무 1-2. step 접근하여 특성중요도 시각화 2. Graphviz ✅ Graphviz png 파일로 출력 3. SimpleImputer로 결측치 대체 4. ETC(Cat plot 매개변수)
1.OrdinalEncoder 2.TargetEncoder
1. import package 2. read data 3. EDA data 4. feature engineering 5. split feature, target 6. cross validation 7. Feature importance
Feature Importance Permutation Importance
1. Partial Dependence Plot 2.Shap value plots
git, branch, github git 기본
SQL 기본 쿼리문, SQL참고 사이트
1. Dbeaver, Docker를 통한 PostgreSQL 접속 2. MongoDB pymongo 접속 간단예제
python PostgreSQL 접속 & 쿼리
1. 테이블 생성 2. 데이터 삽입 3. query 사용하여 읽어오기 4. 데이터 업데이트 5. 데이터 삭제 6. 참고
Flask app 기초 : 쉽게 만들어보기
1.Keras sequential 2.XGBRegressor 두가지를 사용한 결과 비교 및 간단한 딥러닝 레이어 만들어 보기
1. EarlyStopping 2. Weight Decay 3. Weight Constraints 4. Dropout
python sorted word.find, lambda