svm : support Vector Machine고차원 데이터의 분류문제에 좋은 성능트레이드오프(generalization ability, training data) 관계에서 generalization ability 증가시키는 방향Statistical learning
확률론 기본개념 회귀에서는 L2 norm으로 예측오차의 분산을 가장 최소화하는 방향으로 학습한다. 분류에서는 교차 엔트로피로 모델예측의 불확실성을 최소화하는 방향으로 학습한다. 확률변수 종류 확률분포 $$D$$에 따라 1) 이산확률변수 확률변수가 가질 수 있
모델의 출력을 확률로 해석할 수 있게 변환해주는 연산이다.$softmax(o) = (\\frac{exp(o1)}{\\sum{k=1}^{p}exp(ok)},\\cdots,\\frac{exp(o_p)}{\\sum{k=1}^{p}exp(o_k)})$$\\mathbb{R}^p
벡터를 원소로 가지는 2차원 배열코드(넘파이) 에서는 행벡터 기준으로 한다.$X = \\begin{bmatrix} x{11} & x{12} & \\cdots & x{1m} \\ x{21} & x{22} & \\cdots & x{2m} \\ \\vdots & \\vdot
위의 BeautifulSoup를 import하지 않고직접 패키지를 다운 받을 수 있다.=> !pip install BeautifulSoupurl을 가져올 때 영어와의 byte차이로 인해 깨진다.우리가 잘 아는페이지 없음의 404와 같은 숫자처럼성공을 뜻하는 것은 200
표기법 편향 $$\\theta_0$$과 입력 특성의 가중치 $$\\theta_1$$에서 $$\\theta_n$$까지 전체 모델 파라미터를 하나의 벡터 $$\\theta$$에 넣는다. 편향에 해당하는 입력값 $$x_0=1$$추가 편향 = b 특성의 가중치 벡터 =
분류 데이터셋으로 가장 유명한 MNIST 데이터셋을 사용하였습니다.위의 코드를 이용하여 사용할 수 있습니다.문제를 예 / 아니오 로만 구별하는 분류기가 이진 분류기입니다.SGD(확률적 경사 하강법)Classifier를 사용해보았습니다. SGD분류기는 무작위성을 가지고