선형회귀 의 정의회귀계수의 이론적 추정선형회귀식의 변형특징정량적인 종속변수를 예측하는데 쓰이는 도구이다.현대 통계학습중 일반화된 선형회귀법이 많은 부분을 차지한다선형회귀는 회귀문제를 다루는데 있어 가장 유명하고 간단한 형태의 툴이다.정의독립변수 $x_1,x_2,...,
출처예시 \- 전기신호로 동전 5번 던지는 시행을 한다 하자. 이때 던진 결과가 어떤지 묻기위해 몇번의 질문을 해야 하는가? 결과의 경우의 수는 몇개가 있는가? \- 총 5번 질문하면된다 \- 동전 한번 던지는 경우당 2회로 하여 $2 ^{5}$ 개의 경
선형성linearity는 단조성monotonicity를 내포하고 있다. 독립변수 $\\boldsymbol{x}=\\begin{bmatrix} x {1}, x {2}, \\cdots, x {n} \\end{bmatrix}$, 종속변수 $y$가 있을 때 특정 독립변수 $
이미지 데이터는 색을 포함하는 2차원의 픽셀 격자로 표현된다. 따라서 하나의 픽셀은 하나의 튜플(벡터)로 표현된다픽셀의 공간적인 정보를 고려하지 않고, 이미지를 flatten하여 처리하는 기존의 MLP로서는 해석능력의 한계를 갖게 되는 것이다이러한 이유로 CNN, Co
다음과 같은 구조를 갖는 네트워크이다이는 2개의 합성곱 층으로 이루어진 Convolutional Block와 3개의 fully-connected layer로 구성된 Dense Block 층으로 나뉘어진다Convolutional Block \- 6개 채널 ->16개의
최적화 알고리즘이란 손실함수를 최대화하는 방향으로 지속적으로 모델의 파라미터를 업데이트 해주는 도구이다.물론 몇몇 사람들은 최적화를 손실함수를 최적화하는 블랙박스 장치로 여기는것에 만족할 수 있지만, 최적화를 잘 하기 위해선 더 깊은 지식을 필요로 한다. \- 최적
지수 가중평균이란 데이터의 이동평균을 구할 때 오래된 데이터가 미치는 영향을 지수적으로 감쇄시켜 계산하는 방식이다$V {t}=\\beta V {t-1}+(1-\\beta) \\times \\Theta {t}$ \- 이때 $\\beta$ 는 0과 1사이 하이퍼파라미터,