# 머신러닝

20개의 포스트

Introduction to Machine Learning

(예전 블로그에 있었던 글로 2018년에 썼던 글입니다 😉) 머신러닝 정리

2020년 7월 1일
·
0개의 댓글
post-thumbnail

ALEX: 머신러닝이 만드는 자료구조

ALEX는 기존 DBMS에서 인덱싱에 사용하는 B+ Tree 보다 읽기/쓰기 속도가 4.1배 빠르고, 인덱스 크기가 2000배 작다고 한다.

2020년 6월 26일
·
0개의 댓글

[머신러닝] 01_한눈에 보는 머신러닝

한눈에 본다고 했지만 절대 한눈에 볼 수 없는

2020년 6월 3일
·
0개의 댓글

AdaBoost - 한 눈에 알아보기

Boosting Ensemble에 대한 기본적인 이해는 아래의 페이지를 보면 좋습니다.Ensemble (Bagging vs Boosting)Sample마다 Error에 기여하는 정도를 정의하고 Sample Weight을 변화시켜 해당 Error가 큰 Sample에 더

2020년 5월 27일
·
0개의 댓글

Ensemble (Bagging vs Boosting) - 한 눈에 알아보기

Ensemble method는 예측 성능의 향상을 위해 사용된다..Ensemble의 기본적인 원칙은 기본 모델(some model)을 설정하고 그것의 linear combination을 하는 것이다.d차원 input을 이용해 실수값을 예측하는 문제를 가정하자.$$g:

2020년 5월 26일
·
0개의 댓글
post-thumbnail

Face Clustering

Face Clustering 은 비지도 학습(Unsupervised Learning) 기반의 얼굴 분류 알고리즘이다. 적은 수의 이미지만으로 얼굴 분류를 도전해보자.

2020년 4월 22일
·
0개의 댓글
post-thumbnail

[머신러닝 스터디] 앙상블 Bagging, Random Forest

Bagging은 Boostrap Aggregating의 줄임말이다. Boostrap이 뭔지 알아보고 다시 설명 ㄱㄱ!dataset이 있다면 중첩을 허용한 sampling을 통해 다시 여러개의 세트로 분할하는 방식이다(근데 랜덤하게 뽑아내다 보니, Full dataset

2020년 4월 15일
·
0개의 댓글

[머신러닝 스터디] 앙상블 (Ensemble), Voting

'조화' 라는 사전적 개념을 가짐Ensemble Learning : 여러 개의 모델을 활용하여 더 나은 결과를 도출해 내는 것 앙상블 개념 자체는 여러모델의 조합이라는 뜻이기 때문에 꼭 트리를 사용한 것이 아닌 다른 모델을 사용해도 앙상블이라 할 수 있음 가장 많이

2020년 4월 15일
·
0개의 댓글
post-thumbnail

[머신러닝 스터디] 의사결정나무 (Decision Tree)

의사결정나무는 데이터를 분석하는 모형이 '나무'와 비슷하다고 하여 그렇게 불려진다. 질문을 던진 후 대상을 좁혀나가는, 마치 스무고개와 비슷한 개념이라고 생각하면 된다.오른쪽 표를 보고 데이터를 정리하자면 오른쪽과 같은 '나무'모양으로 정리가 가능하다.그렇다면 의사결정

2020년 3월 16일
·
0개의 댓글
post-thumbnail

[머신러닝 스터디] SVM (Support Vector Machine)

위와 같은 그림이 있을 때, 데이터를 잘 나누려면 어떻게 하는것이 좋을까?그림에서 보는것과 같이 선을 긋는것이 좋을것 같아!그 사이의 공간을 margin이라 부름margin이 최대가 될수록 좋다!위 그림에서는 조금 다른 경우다. 빨간색의 데이터가 초록색 데이터의 범주에

2020년 3월 10일
·
0개의 댓글
post-thumbnail

[머신러닝 스터디] LDA (Linear Discriminant Analysis)

데이터 분포를 학습해 결정경계를 만들어 데이터를 분류하는 모델(어느 모델이 더 분류가 잘 되었다고 판단할 수 있을까?)두 범주의 중심(평균!)이 서로 멀수록 좋다!두 범주의 분산이 작을수록 좋다!이 두가지의 경우를 최대한! 충족시키며 중간지점을 찾아내는것이 LDA다!(

2020년 3월 9일
·
1개의 댓글
post-thumbnail

[머신러닝 스터디] K-NN (K-Nearest Neighbor)

KNN 이란? 새로운 데이터가 주어졌을 때, 기존 데이터 중 가장 가까운 k개의 데이터를 정보로 새로운 데이터를 예측하는 방법론 K는 어떻게 정할까? 너무 큰 k는 미세한 경계부분을 잘못 분류할 것이다! 너무 작은 k는 이상치의 영향을 크게받을것이고, 패턴이 직관적이

2020년 3월 6일
·
0개의 댓글
post-thumbnail

[머신러닝 스터디] 머신러닝의 개념과 종류 2

입력, 은닉, 출력 층으로 구성된 모형overfitting이 심하고, 학습시간이 매우 길다.이미지의 지역별 feature를 뽑아서 neural network 학습자세한건 나중에\~\~~DATA를 만들어내는 Generator와, 만들어진 data를 평가하는 Discrim

2020년 3월 3일
·
0개의 댓글

[머신러닝 스터디] 머신러닝의 개념과 종류 1

회귀(regeression) : 입력번수에 대해 연속형 출력변수 y를 예측분류(classification) : 입력변수에 대해 이산형 출력변수 y를 예측군집 분석 : 유사한 데이터끼리 그룹화PCA : 독립변수들의 차원을 축소화수많은 시뮬레이션을 통해 현재의 선택이 최대

2020년 3월 3일
·
0개의 댓글

[PyTorch] Nan(or Infinite) Loss 검출 방법

PyTorch 를 이용하여 모델을 학습 시킬 때, Loss 값이 Nan 이 되는 경우가 존재한다.Loss 의 값이 Nan 이 되면, backpropagation 과정에서 문제가 발생하게되며(Infinite 값도 포함), 이는 곧 모델의 학습히 원할히 이루어지지 않음을

2020년 2월 29일
·
0개의 댓글

다층 퍼셉트론 실습

2019-04-23 00:46 작성된 포스트 - 인공지능 실습 과제로 다층 퍼셉트론 구현에 대해 하게 되었다. 퍼셉트론(Perceptron) 이란? 1.jpg 퍼셉트론이란 인공 신경망 모형의 하나로, 1957년 Rosenblatt가 단순한 패턴을 인식하기 위해 제안한 모델이다. 퍼셉트론은 다수의 Input을 받은 후 하나의 Output을 출력...

2020년 2월 3일
·
0개의 댓글

홉필드 모델 실습

2019-04-07 01:35 작성된 포스트 인공지능수업 과제로 홉필드 모델에 대한 실습 레포트 작성을 진행하게 되었다. 홉필드 모델이란? 홉필드 모델은 1982년 미국의 물리학자 Hopfield가 발표한 네트워크 모델이다. 홉필드 모델의 기본 가정(제약조건이라고도 한다) 은 노드간의 결합 강도, 즉 가중치가 대칭적이고, 비동기적으로 동작하는 병렬 컴퓨...

2020년 2월 3일
·
0개의 댓글
post-thumbnail

AI시대의 일자리: 낙관적으로 봐도 되는 이유들

인공지능 시대의 우리의 직업은 어떻게 될까? 대부분의 사람들은 인공지능 시대에 우리는 기계의 '노예'가 되어버릴 것이라는 막연한 두려움을 갖고 있는 듯하다. 이에 대해 캐나다 본사의 Advisory 팀에 있는 Richard라는 친구가 에 대해 좋은 글을 적어서, 아래 인공지능과 사람 ~나~의 공동노력을 통해 번역된 글을 싣기로 하였다! 이 글을 정지훈 교...

2020년 2월 3일
·
0개의 댓글

MachinLearning 주요 용어 정리

Machine Learning 스터디를 시작했습니다. 머신러닝 단기집중과정을 기반으로 스터디를 진행 중입니다. 공부하는 순서대로 포스트를 하나씩 정리해서 올릴 예정입니다. 그리고 텐서플로우에 있는 예제를 손에 익을 정도로 외울 예정입니다.(물론 이해는 기본) 외우는방식의 공부를 매우 싫어하지만 이론적인 내용도 방대하고 앞으로 나갈려면 불가피할 것 같습니...

2019년 12월 2일
·
0개의 댓글
post-thumbnail

[Machine Learning] 에어비앤비 가격 예측

이 글은 Dataquest.io의 Machine Learning Fundamentals: Predicting Airbnb Prices를 읽고 번역한 글입니다. 머신러닝은 현재 IT 산업에서 가장 핫한 단어 중 하나입니다. 지난 3년 간 머신러닝에 대한 검

2018년 12월 10일
·
4개의 댓글