profile
나는야 호기심 많은 느림보🤖
post-thumbnail

SVM 복잡한 수식 쉽게 이해하기!

svm : support Vector Machine고차원 데이터의 분류문제에 좋은 성능트레이드오프(generalization ability, training data) 관계에서 generalization ability 증가시키는 방향Statistical learning

2022년 1월 26일
·
0개의 댓글
·

확률론 Basic

확률론 기본개념 회귀에서는 L2 norm으로 예측오차의 분산을 가장 최소화하는 방향으로 학습한다. 분류에서는 교차 엔트로피로 모델예측의 불확실성을 최소화하는 방향으로 학습한다. 확률변수 종류 확률분포 $$D$$에 따라 1) 이산확률변수 확률변수가 가질 수 있

2022년 1월 20일
·
0개의 댓글
·

소프트맥스, 활성함수, 역전파

모델의 출력을 확률로 해석할 수 있게 변환해주는 연산이다.$softmax(o) = (\\frac{exp(o1)}{\\sum{k=1}^{p}exp(ok)},\\cdots,\\frac{exp(o_p)}{\\sum{k=1}^{p}exp(o_k)})$$\\mathbb{R}^p

2022년 1월 20일
·
0개의 댓글
·

행렬, 역행렬, 경사하강법

벡터를 원소로 가지는 2차원 배열코드(넘파이) 에서는 행벡터 기준으로 한다.$X = \\begin{bmatrix} x{11} & x{12} & \\cdots & x{1m} \\ x{21} & x{22} & \\cdots & x{2m} \\ \\vdots & \\vdot

2022년 1월 19일
·
0개의 댓글
·

Beautiful Soup (간단한 웹 크롤링)

위의 BeautifulSoup를 import하지 않고직접 패키지를 다운 받을 수 있다.=> !pip install BeautifulSoupurl을 가져올 때 영어와의 byte차이로 인해 깨진다.우리가 잘 아는페이지 없음의 404와 같은 숫자처럼성공을 뜻하는 것은 200

2022년 1월 19일
·
0개의 댓글
·

SVM

표기법 편향 $$\\theta_0$$과 입력 특성의 가중치 $$\\theta_1$$에서 $$\\theta_n$$까지 전체 모델 파라미터를 하나의 벡터 $$\\theta$$에 넣는다. 편향에 해당하는 입력값 $$x_0=1$$추가 편향 = b 특성의 가중치 벡터 =

2022년 1월 19일
·
0개의 댓글
·

분류 / 이진분류, 성능측정, 다중분류

분류 데이터셋으로 가장 유명한 MNIST 데이터셋을 사용하였습니다.위의 코드를 이용하여 사용할 수 있습니다.문제를 예 / 아니오 로만 구별하는 분류기가 이진 분류기입니다.SGD(확률적 경사 하강법)Classifier를 사용해보았습니다. SGD분류기는 무작위성을 가지고

2022년 1월 19일
·
0개의 댓글
·