머신 러닝에서 데이터는 정말 중요하다!
머신러닝의 기초 지식에 대하여 작성하였습니다.
Supervised Learning의 개념과 Decision Tree에 대한 내용을 작성하였습니다.
지도 학습의 일반화에 대한 개념 및 모델의 일반화를 높이기 위한 방법에 대하여 작성하였습니다.
머신러닝 모델의 성능을 확인하는 방법 & 머신러닝을 위한 기본적인 확률 개념 & 확률적 구분기의 기본 개념에 대하여 작성하였습니다.
Bayes Rule & Naive Bayes에 대한 내용을 작성하였습니다.
Decision Theory & Non-parametric Model & k-NN model 에 대하여 작성했습니다.
Ensemble에 대한 내용을 작성하였습니다.
Regression 에 대하여 작성하였습니다.
Linear Regression Model Least Square
linear classification에 대해서 알아봅시다!
Linear Classification에 사용되는 loss function들에 대해서 학습합니다.
noise에 강인한 모델 설계 방법에 대해서 알아봅시다 !
Multi-calss 문제 해결방법, p-norm, Regularization에 대하여 작성했습니다.
Non-linear Data에 대하여 작성했습니다.
Kernel Trick과 그 효과에 대하여 작성하였습니다.
클러스터링에 대하여 작성했습니다.
클러스터링에 대하여 작성하였습니다. (k-means clustering & k-means clustering++)
Weak-supervision에 대하여 작성했습니다.
Semi-supervision 에 대해서 작성했습니다.
Gradient Descent 기본 내용을 작성하였습니다.
SGD, Mini-batch Gradient Descent 에 대하여 작성하였습니다.
DNN 에 대하여 작성하였습니다.
DNN 에 대한 설명을 작성했습니다.
DNN 을 활용한 향상된 Supervised LearningResidual 구조의 의미다양한 DNN 활용방법기존보다 향상된 형태의 Supervised Learning 을 위한 DNN 구조를 이해Residual 구조의 필요성 이해다양한 DNN 활용방법을 이해Kaiming