# ML

403개의 포스트
post-thumbnail

추천시스템 적용?기 - 1

Introduce 안녕하세요 자르반입니다. 오늘은 저번 포스팅에 이어 추천시스템에 관련된 내용인데요, 이번에는 실제 추천시스템을 적용하기 위해 알아본 3가지를 포스팅할 계획입니다. > 1. content-based에서 어떤 기준으로 content를 추천할 것인지.

약 1시간 전
·
0개의 댓글
post-thumbnail

추천시스템 대체 그게 뭐야?

안녕하세요 자르반입니다. 오늘은 제가 하고 있는 프로젝트에서 추천시스템을 적용할 일이 생겨이에 대해 공부하고 공부한 것을 적어보려고 합니다.

약 9시간 전
·
0개의 댓글
post-thumbnail

[캐글스터디] 가운데 손가락 모자이크 알고리즘 만들기

유튜브 "빵형의 개발도상국"을 보면서 공부 및 프로젝트를 진행하였습니다.

2일 전
·
0개의 댓글
post-thumbnail

[캐글스터디] 가위바위보 기계 만들기

유튜브 "빵형의 개발도상국"을 보면서 공부 및 프로젝트를 진행하였습니다.

2일 전
·
0개의 댓글
post-thumbnail

[캐글스터디] 후기

캐글 스터디 1/11 후기 기록!

2일 전
·
0개의 댓글

확률론 Basic

확률론 기본개념 회귀에서는 L2 norm으로 예측오차의 분산을 가장 최소화하는 방향으로 학습한다. 분류에서는 교차 엔트로피로 모델예측의 불확실성을 최소화하는 방향으로 학습한다. 확률변수 종류 확률분포 $$D$$에 따라 1) 이산확률변수 확률변수가 가질 수 있

3일 전
·
0개의 댓글

소프트맥스, 활성함수, 역전파

모델의 출력을 확률로 해석할 수 있게 변환해주는 연산이다.$softmax(o) = (\\frac{exp(o1)}{\\sum{k=1}^{p}exp(ok)},\\cdots,\\frac{exp(o_p)}{\\sum{k=1}^{p}exp(o_k)})$$\\mathbb{R}^p

3일 전
·
0개의 댓글

분류 모델 평가지표 (Confusion Matrix)

< 분류에서 사용하는 성능지표 >ref) https://yngiec.github.io/machine%20learning/2020/05/01/val_eval/분류에서 가장 많이 사용되는 오분류표이다. 행렬의 배치는 그리는 사람에 따라 달라질 수 있으며, S

3일 전
·
0개의 댓글
post-thumbnail

[TIL] 배치 학습이 뭐지??

배치학습 ML을 공부하던 도중 미니 배치 경사 하강법 / 배치 경사 하강법과 같은 단어를 듣게 되었다. 배치라는 단어를 많이 듣긴 했는데... 무슨 뜻일까?

4일 전
·
0개의 댓글

데이터 스케일링(Data Scaling), 로그 변환

데이터 스케일링(Data Scaling) :* 데이터 값의 스케일(범위)를 조정*해주는 것이다. 특성 별로 값의 스케일이 다르다면, 머신러닝이 제대로 작동하지 않을 수 있기 때문에 데이터 스케일링 작업을 해주어야 한다. scikit-learn은 다양한 scaler를

4일 전
·
0개의 댓글

행렬, 역행렬, 경사하강법

벡터를 원소로 가지는 2차원 배열코드(넘파이) 에서는 행벡터 기준으로 한다.$X = \\begin{bmatrix} x{11} & x{12} & \\cdots & x{1m} \\ x{21} & x{22} & \\cdots & x{2m} \\ \\vdots & \\vdot

4일 전
·
0개의 댓글

Beautiful Soup (간단한 웹 크롤링)

위의 BeautifulSoup를 import하지 않고직접 패키지를 다운 받을 수 있다.=> !pip install BeautifulSoupurl을 가져올 때 영어와의 byte차이로 인해 깨진다.우리가 잘 아는페이지 없음의 404와 같은 숫자처럼성공을 뜻하는 것은 200

4일 전
·
0개의 댓글

SVM

표기법 편향 $$\\theta_0$$과 입력 특성의 가중치 $$\\theta_1$$에서 $$\\theta_n$$까지 전체 모델 파라미터를 하나의 벡터 $$\\theta$$에 넣는다. 편향에 해당하는 입력값 $$x_0=1$$추가 편향 = b 특성의 가중치 벡터 =

4일 전
·
0개의 댓글

분류 / 이진분류, 성능측정, 다중분류

분류 데이터셋으로 가장 유명한 MNIST 데이터셋을 사용하였습니다.위의 코드를 이용하여 사용할 수 있습니다.문제를 예 / 아니오 로만 구별하는 분류기가 이진 분류기입니다.SGD(확률적 경사 하강법)Classifier를 사용해보았습니다. SGD분류기는 무작위성을 가지고

4일 전
·
0개의 댓글

앙상블에 관하여

앙상블의 사전적인 의미는 '전체적인 어울림 혹은 통일'이다. 이를 머신러닝에 빗대어 본다면 하나의 알고리즘으로 여러개의 모델을 학습하는 것이라 할 수 있다.Decision Tree(결정 트리) 알고리즘이 가장 대표적이라고 할 수 있겠다.(아래의 그림과 같은 것을 결정트

5일 전
·
0개의 댓글

Regreesion, 선형 회귀 알아보기

MSE (Mean Squared Error)를 최소화UntitledTrain set과 validation set의 구성을 여러번 분할overfitting을 방지UntitledOLS loss function + 절댓값0에 수렴하면 feature가 target에 영향을 주

6일 전
·
0개의 댓글
post-thumbnail

[혼공머] 손실 함수(loss function), 조기 종료(early stopping), hinge loss

👩‍🔬 이번에는 혼공머 책의 챕터 4-2 파트입니다.📚 혼자공부하는머신러닝+딥러닝, 한빛미디어🔗 서포트 벡터머신, SVM - (2)확률적 경사 하강법(SGD)미니배치 경사 하강법(Minibatch gradient descent)배치 경사하강법(Batch grad

2022년 1월 15일
·
0개의 댓글
post-thumbnail

[혼공머] 배치와 미니 배치, 확률적 경사하강법

👩‍🔬 이번에는 혼공머 책의 챕터 4-2 파트입니다.📚 혼자공부하는머신러닝+딥러닝, 한빛미디어📄 Gradient Descent - 경사하강법, 편미분, Local Minimum📑 경사하강법(Gradient Descent)🔗 배치와 미니 배치, 확률적 경사하강

2022년 1월 15일
·
0개의 댓글
post-thumbnail

[혼공머] Logistic Regression(로지스틱 회귀)

공부 벌레🐛 되려다 머리가 터지려는 요즘...🤯📚 교재: 혼자 공부하는 머신러닝+딥러닝🔗 로지스틱 회귀🔗 로지스틱 회귀분석의 원리와 장점🔗 위키백과 - 로지스틱 회귀저는 위 교재 흐름을 바탕으로 개념 정리 중입니다.이번 포스팅은 챕터 4-1 로지스틱 회귀에

2022년 1월 15일
·
0개의 댓글

붓꽃(iris) 예제 예측 정확도

2022년 1월 13일
·
0개의 댓글