# loss function

18개의 포스트

Optimize : Scikit - Learn

모델이 예측한 결과와 정답간의 차이(오차)를 가장 적게 만드는 Parameter를 찾는 과정모델의 예측값과 실제 값의 차이를 계산하는 함수를 만들고 그 값이 최소가 되는 지점을 찾는 작업모델의 예측한 값과 실제값 사이의 차이를 정의하는 함수로 모델이 학습할 때 사용이

2022년 7월 17일
·
0개의 댓글
·
post-thumbnail

이미 슬픈 Cross Entropy..

이미 슬픈 Cross Entropy 복습하기.

2022년 6월 27일
·
0개의 댓글
·
post-thumbnail

[DeepLeaning from Scratch] 신경망 학습

신경망 학습에서 학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것손실 함수는 신경망이 학습할 수 있도록 해주는 지표이 손실 함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습의 목표데이터에서 학습한다는 것은 가중치 매개변수의 값

2022년 5월 29일
·
0개의 댓글
·
post-thumbnail

목적함수(Objective Function)

KeywordsObjective FunctionMSEIndependent Variable, Dependent Variable Regression 신경망의 학습능력을 평가하는 지표이다. 출력층의 예측값 (가중치+편향)과 실제값의 차이를 수학적으로 접근하는 기법이다. Th

2022년 4월 15일
·
0개의 댓글
·

Loss functions

L1 loss L2 loss Mean Squre Error $Y = \sum (xi - yi)^{2}$ Rooted Mean Squre Error $Y = \sum \sqrt {(xi - yi)^{2}}$

2022년 3월 23일
·
0개의 댓글
·
post-thumbnail

Logistic Regression (Notation, Cost Function, Gradient Descent)

Binary Classification classification의 결과가 0 또는 1인 것을 의미한다. 예를 들면 사진 하나를 보여주고 이 사진이 고양이이면 1, 고양이가 아니면 0을 뱉는 classification model은 binary classificatio

2022년 3월 12일
·
0개의 댓글
·

Ai_D67

손실 함수의 목적은 손실의 정도를 파악하고 줄이기 위해 사용할 수 있는 기준을 정하는데 있습니다.이 기준을 가지고 편미분과 체인 함수를 통해 가중치를 재조정하며 성능을 개선합니다.따라서 손실 함수는 학습 결과를 판정할 수 있는 도구이기 때문에 매우 중요합니다.Binar

2022년 2월 23일
·
0개의 댓글
·

Huber Loss란?

L1, L2 Loss L1 Loss L1 Loss의 경우, 'V' 형태로 미분 불가능한 지점이 있지만 상대적으로 L2 Loss에 비해 이상치에 대한 영향은 적다. L2 Loss L2 Loss의 경우, 'U' 형태로 모든 지점에서 미분 가능하지만, 이상치의 에러가 제곱

2022년 2월 7일
·
0개의 댓글
·
post-thumbnail

손실 함수

예측 정확도를 매개 변수 갱신의 지표로 사용하지 않는 이유를 소개하며 손실 함수의 필요성을 설명한다. 이어 평균 제곱 오차(Mean Squared Error, MSE)와 교차 엔트로피 오차(Cross-Entropy Error, CEE) 손실 함수를 소개한다.

2022년 1월 17일
·
0개의 댓글
·
post-thumbnail

Stanford University CS231n - Lecture 3 :: Loss Functions and Optimization

강의를 들어가기 전에 Assignment 본강의의 숙제를 확인해볼 수 있음. 채점은 불가능하나 어떤 부분을 중점적으로 점수를 매기는지에 대해서 체크가능Piazza에서 프로젝트 진행가능Google Cloud credit : 학교 구글 클라우드 계정 활용해서 과제를 해보기

2021년 11월 4일
·
0개의 댓글
·
post-thumbnail

1.1 Artificial intelligence, machine learning and deep learning

AI ML Learning representation from data The "deep" in deep learning Understanding how deep learning works, in 3 figures What deep learning has ac

2021년 9월 16일
·
0개의 댓글
·

Deep ML. Loss Functions (손실함수)

지난 포스팅에서 Linear Classifier는 parametric classifier의 일종이며, parametric classifier 라는 것은 training data의 정보가 파라미터인 '행렬 W'로 요약된다는 것을 뜻하고, W가 학습되는 것이라 배웠다.

2021년 7월 22일
·
0개의 댓글
·

목적함수 손실함수 비용함수 차이

우리가 최소화 최대화 하고 싶어하는 함수를 목적함수라고 한다. 최소화 시킨 함수를 비용함수 (cost function), 손실 함수 (loss function), 또는 오류 함수 (error function)라고 부를 수 있다. 비용함수는 최적화 문제에 쓰이고 손실함수

2021년 5월 14일
·
0개의 댓글
·
post-thumbnail

[Deep Learning👽] Loss 정리 1️⃣ : GAN loss

간단하게 딥러닝을 할 때 사용되는 Loss 몇 개를 정리해 보고자 한다. ✅ GAN Loss (Minimax Loss)

2021년 2월 28일
·
0개의 댓글
·