모델별 손실함수 (by ChatGPT)

김찬주·2023년 6월 29일

감독 학습:

회귀:

선형 회귀: MSE(Mean Squared Error) 손실 함수가 일반적으로 사용됩니다.
지원 벡터 회귀: Epsilon-Insensitive 손실 또는 MSE 손실의 변형을 사용할 수 있습니다.

분류:

로지스틱 회귀: 교차 엔트로피 손실 함수가 일반적으로 사용됩니다.
SVM(Support Vector Machines): 힌지 손실 또는 교차 엔트로피 손실의 변형을 사용할 수 있습니다.
신경망(다층 퍼셉트론): 교차 엔트로피 또는 Softmax 교차 엔트로피 손실이 일반적으로 사용됩니다.

비지도 학습:

클러스터링:

K-평균: 목적 함수는 포인트와 할당된 클러스터 중심 사이의 유클리드 거리를 최소화합니다.
Gaussian Mixture Models(GMM): MLE(Maximum Likelihood Estimation)는 일반적으로 매개변수를 추정하는 데 사용됩니다.

차원 축소:

PCA(Principal Component Analysis): 재구성 오류 또는 분산 손실을 최소화합니다.
자동 인코더: 재구성 오류(일반적으로 평균 제곱 오류) 손실이 일반적으로 사용됩니다.

앙상블 방법:

Random Forests: 회귀 및 분류 모두에 대해 MSE 또는 Cross Entropy 손실을 사용할 수 있습니다.
GBM(Gradient Boosting Machines): MSE, Log Loss 또는 Exponential Loss와 같은 다양한 손실 함수를 사용할 수 있습니다.

강화 학습:

Q-Learning: 시간차(TD) 손실 또는 MSBE(Mean Squared Bellman Error)와 같은 변형이 일반적으로 사용됩니다.
정책 기울기: Actor-Critic 손실 또는 REINFORCE 손실과 같은 대리 손실 함수를 사용할 수 있습니다.

딥 러닝:

CNN(Convolutional Neural Networks): 교차 엔트로피 손실은 일반적으로 분류 작업에 사용됩니다.
RNN(Recurrent Neural Networks): 교차 엔트로피 또는 범주형 교차 엔트로피 손실은 일반적으로 시퀀스 예측 작업에 사용됩니다.
GAN(Generative Adversarial Networks): 실제 샘플과 생성된 샘플 간의 차이를 최소화하는 적대적 손실.
VAE(Variational Autoencoders): VAE 손실(Variational Lower Bound)은 일반적으로 인코더와 디코더를 최적화하는 데 사용됩니다.

0개의 댓글