🙄 ➡
🙄 ➡
🙄 ➡ $A$ = $\begin{bmatrix}1&1&0&2\\2&1&4&1\\ \end{bmatrix}$
🙄 ➡
데이터에 잘 맞는 일차 함수나 직선을 구하는 게 아니라 다항식이나 곡선을 구해서 학습하는 것
데이터에 가장 잘 맞는 시그모이드 함수를 찾는 것$S(x)=\\frac{1}{1+e^{-x}}$무조건 0과 1 사이의 결과를 냄$e$는 2.718이라는 양수$S(\\infty)=\\frac{1}{1+e^{-\\infty}}=\\frac{1}{1+0}=1$$S(-\\in
데이터를 그대로 사용하지 않고, 가공해서 모델을 학습시키는데 좀 더 좋은 형식으로 만들어주는 것Feature : 입력 변수의 크기를 scale : 조정해 준다 머신 러닝 모델에 사용할 입력 변수들의 크기를 일정 범위 내로 조정경사 하강법을 조금 더 빨리할 수 있다는 장
모델이 너무 간단해서 데이터의 관계를 잘 학습하지 못하는 경우모델의 편향, bias가 높다고 함높은 차항의 회귀를 사용해서 training 데이터에 거의 완벽한 곡선을 보이는 모델모델의 복잡도를 늘려서 training 데이터의 관계를 잘 학습편향이 낮은 모델이라고 함t
기존 test set 하나로만 모델을 평가하기엔 신뢰도가 떨어진다딱 test set에서만 성능이 좋을 수 있고 반대로 안 좋게 나올 수도 있음교차 검증은 이러한 문제를 해결해주는 방법가장 흔히 쓰이는 것이 k-겹 교차 검증먼저 전체 데이터를 k개의 같은 사이즈로 나눈다
예/아니오로 답할 수 있는 질문들이 있고, 그 질문들의 답을 따라가면서 데이터를 분류하는 알고리즘leaf 노드는 항상 특정 예측값을 갖고 있고 나머지 노드들은 예/아니오로 답할 수 있는 질문을 갖고 있다데이터 셋의 데이터들이 얼마나 섞여있는지를 나타냄작을수록 데이터 셋
결정 트리는 직관적이고 쉽게 해석할 수 있는 장점이 있는 반면 부정확하다는 단점 존재그럼에도 결정 트리가 중요한 이유는 결정 트리를 응용하여 성능이 좋은 다른 모델을 만들 수 있음하나의 모델을 쓰는 대신, 수많은 모델들을 사용해 종합적인 판단을 하는 것수많은 모델들을
🙄 Boosting ➡ Boosting "~전보다 더 크거나 높게 하다" 일부러 성능이 안 좋은 모델들을 사용한다 더 먼저 만든 모델들의 성능이, 뒤에 있는 모델이 사용할 데이터 셋을 바꾼다 모델들의 예측을 종합할 때, 성능이 좋은 모델의 예측을 더 반영한다 >
🙄 ➡
🙄 협업 필터링 ➡ 협업 필터링이란? 한 명의 유저에게 영화를 추천해 줄 때 다른 유저들의 데이터도 사용하는 방식 수많은 유저 데이터들이 협업해서 상품 추천 내용 기반 추천은 한 유저의 평점이 다른 유저의 평점에 영향을 미치지 않음 유저들의 평점이 서로 독립적
인수분해 : 자연수나 다항식을 여러 개의 인수의 곱으로 변형하는 수학 개념평점 데이터가 아래와 같을 때 두 개의 행렬 (행렬 1, 행렬 2)로 인수분해 가능$\\begin{array}{|c|c|c|c|c|} movie_1 & movie_2 & movie_3 & movi