▪ 타깃 데이터에 2개 이상의 클래스가 포함된 문제.
▪ 선형 방정식을 사용한 분류 모델.
▪ 선형 회귀와 달리 시그모이드 함수나 소프트맥스 함수를 사용하여 클래스 확률을 출력할 수 있음.
시그모이드 함수
선형 방정식의 출력을 0과 1 사이의 값으로 압축하며 이진 분류를 위해 사용.
소프트맥스 함수
다중 분류에서 여러 선형 방정식의 출력 결과를 정규화하여 합이 1이 되도록 만듦.
▪ 훈련 세트에서 샘플 하나씩 꺼내 손실 함수의 경사를 따라 최적의 모델을 찾는 알고리즘.
에포크
▪ 확률적 경사 하강법에서 훈련 세트를 한 번 모두 사용하는 과정.
▪ 적은 에포크 횟수 동안에 훈련한 모델은 훈련 세트와 테스트 세트에 잘 맞지 않는 과소적합된 모델일 가능성이 높음.
▪ 많은 에프크 횟수 동안에 훈련한 모델은 훈련 세트에 너무 잘 맞아 과대적합된 모델일 가능성이 높음.
미니배치 경사 하강법
샘플을 하나씩 사용하지 않고 여러 개를 사용하는 것.
배치 경사 하강법
한 번에 전체 샘플을 사용하는 것.
▪ 어떤 문제에서 머신러닝 알고리즘이 얼마나 엉터리인지를 측정하는 기준.
▪ 확률적 경사 하강법이 최적화할 대상.
이진분류 -> 로지스틱 회귀 손실 함수.
다중 분류 -> 크로스엔트로피 손실 함수.
회귀 문제 -> 평균 제곱 오차 손실 함수.
SGDClassifier의 객체를 만들 때 2개의 매개변수
loss -> 손실 함수의 종류 지정.
max_iter -> 수행할 에포크 횟수.
- 로지스틱 회귀가 이진 분류에서 확률을 출력하기 위해 사용하는 함수는 무엇인가요?
① 시그모이드 함수
② 소프트맥스 함수
③ 로그 함수
④ 지수 함수
답: ① 시그모이드 함수
📒혼자 공부하는 머신러닝+딥러닝 책을 참고하여 작성하였습니다.
https://www.hanbit.co.kr/store/books/look.php?p_code=B2002963743