손실함수는 학습이 진행되면서 해당 과정이 얼마나 잘 되고 있는지 나타내는 지표(손실함수는 작을수록 좋다)
모델이 훈련되는 동안 최소할될 값으로 주어진 문제에 대한 성공 지표
손실 함수에 따른 결과를 통해 파라미터를 조정하며 학습이 진행
손실함수는 최적화 이론에서 최소화 하고자 하는 함수로 미분 가능한 함수를 사용
keras에서 제공되는 주요 손실 함수
평균절대 오차 : 일정하게 감소
평균제곱 오차 : 차이가 클때는 더 많이 감소한다.
이진 분류 또는 다중 클래스 분류에 주로 사용
오차는 소프트맥스 결과와 원-핫 인코딩 사이의 출력 간 거리를 비교
정답을 맞추면 오차가 0, 틀리면 그 차이가 클수록 오차가 무한히 커지게 됨
이진 분류 문제의 교차 크로스 엔트로피
옵티마이저는 손실 함수를 기반으로 모델이 어떻게 업데이트되어야 하는지 결정
keras에서 여러 옵티마이저를 제공하고, 사용자가 특정 종류의 확률적 경사 하강법 지정 가능
보통 옵티마이저의 튜닝을 위해 따로 객체를 생성하여 컴파일시에 포함