# loss function

[CS231n] Lecture 3: Loss Function and Optimization 정리
Stanford University CS231n Lecture 3
[DL] 손실함수(Loss Function)
예측값과 실제값의 차이를 비교하기 위한 함수. 최적화를 하기 위해서 최소화를 하는 것이 목적인 함수. 목적함수(Object Function), 비용함수(Cost Function) 이라고도 부름손실함수를 통해서 모델 학습 중에 loss가 잘 줄어들지 않는다면 학습이 잘
옵티마이저(Optimizer)?, 손실 함수(loss function)?
퍼셉트론 part3로 넘어가기전에 먼저 옵티마이저와 손실함수를 알고 넘어가면 좋을꺼 같아서 포스팅을 준비했습니다.사실 조금 쉬고 넘어가면 좋겠다는 마음도 ㅎㅎ(퍼셉트론 너무 어려워잉~)그리고 옵티마이저랑 손실함수랑 헷갈릴수도 있어서 준비한것도 있습니다 허..바로 시작하

밑바닥부터 시작하는 딥러닝1 - 신경망 학습(1)
학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 얻는 것을 의미합니다.최적값을 얻기 위하여 손실함수를 지표로 사용합니다.손실함수(Loss function)는 실제값(Target)과 모델의 예측값(Predict)의 차이를 수치화해주는 함수로 "오차"를 나타

[DeepLeaning from Scratch] 신경망 학습
신경망 학습에서 학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것손실 함수는 신경망이 학습할 수 있도록 해주는 지표이 손실 함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습의 목표데이터에서 학습한다는 것은 가중치 매개변수의 값

목적함수(Objective Function)
KeywordsObjective FunctionMSEIndependent Variable, Dependent Variable Regression 신경망의 학습능력을 평가하는 지표이다. 출력층의 예측값 (가중치+편향)과 실제값의 차이를 수학적으로 접근하는 기법이다. Th
Loss functions
L1 loss L2 loss Mean Squre Error $Y = \sum (xi - yi)^{2}$ Rooted Mean Squre Error $Y = \sum \sqrt {(xi - yi)^{2}}$

Logistic Regression (Notation, Cost Function, Gradient Descent)
Binary Classification classification의 결과가 0 또는 1인 것을 의미한다. 예를 들면 사진 하나를 보여주고 이 사진이 고양이이면 1, 고양이가 아니면 0을 뱉는 classification model은 binary classificatio
Ai_D67
손실 함수의 목적은 손실의 정도를 파악하고 줄이기 위해 사용할 수 있는 기준을 정하는데 있습니다.이 기준을 가지고 편미분과 체인 함수를 통해 가중치를 재조정하며 성능을 개선합니다.따라서 손실 함수는 학습 결과를 판정할 수 있는 도구이기 때문에 매우 중요합니다.Binar
Huber Loss란?
L1, L2 Loss L1 Loss L1 Loss의 경우, 'V' 형태로 미분 불가능한 지점이 있지만 상대적으로 L2 Loss에 비해 이상치에 대한 영향은 적다. L2 Loss L2 Loss의 경우, 'U' 형태로 모든 지점에서 미분 가능하지만, 이상치의 에러가 제곱

Stanford University CS231n - Lecture 3 :: Loss Functions and Optimization
강의를 들어가기 전에 Assignment 본강의의 숙제를 확인해볼 수 있음. 채점은 불가능하나 어떤 부분을 중점적으로 점수를 매기는지에 대해서 체크가능Piazza에서 프로젝트 진행가능Google Cloud credit : 학교 구글 클라우드 계정 활용해서 과제를 해보기

1.1 Artificial intelligence, machine learning and deep learning
AI ML Learning representation from data The "deep" in deep learning Understanding how deep learning works, in 3 figures What deep learning has ac
Deep ML. Loss Functions (손실함수)
지난 포스팅에서 Linear Classifier는 parametric classifier의 일종이며, parametric classifier 라는 것은 training data의 정보가 파라미터인 '행렬 W'로 요약된다는 것을 뜻하고, W가 학습되는 것이라 배웠다.
목적함수 손실함수 비용함수 차이
우리가 최소화 최대화 하고 싶어하는 함수를 목적함수라고 한다. 최소화 시킨 함수를 비용함수 (cost function), 손실 함수 (loss function), 또는 오류 함수 (error function)라고 부를 수 있다. 비용함수는 최적화 문제에 쓰이고 손실함수