10. Sequential Models - RNN

sqeuntial data를 처리하는데 있어서 가장 큰 어려움은 우리가 결국 얻고 싶은 것은 하나의 label 혹은 정보인데, sequential data는 길이를 알 수 없으므로, 받아들여야 하는 입력의 차원을 알 수 없는 것이다. input의 입력을 알 수 없으므로

2022년 5월 11일
·
0개의 댓글
·

9. CNN-Convolution

다층신경망다층신경망은 각 뉴런들이 선형모델과 활성함수로 모두 연결된(fully connect) 구조로, 가중치 행렬과 입력벡터의 내적과 활성화 함수를 통해 잠재변수를 계산할 수 있었다.하지만, 성분 h_i 에 해당하는 가중치 행들이 각각의 i번째 위치마다 필요하고, i

2022년 5월 11일
·
0개의 댓글
·

8. 베이즈 통계학

조건부확률베이즈 통계학을 이해하기 위해서는 조건부확률의 개념을 이해해야 한다.특정 사건 B가 일어난 상황을 분모로 두고, B가 일어난 사건에서 A가 발생할 상황을 분자로 놓았을 때 B일때 A의 확률을 계산할 수 있다.$$P(A\\cap B) = P(B)P(A|B)$$베

2022년 5월 4일
·
0개의 댓글
·

7. 통계학

통계적 모델링은 적절한 가정 위에서 확률 분포를 추정하는 것이 목표이며, 어떤 확률 분포를 사용하여 모델링을 해야 할지 중요하다유한한 개수의 데이터만 관찰해서 모집단의 분포를 정확하게 알아낸다는 것은 불가능하다, 따라서 근사적으로 확률 분포를 추정할 수 밖에 없다.모수

2022년 5월 4일
·
0개의 댓글
·

6. 확률론

딥러닝은 확률론 기반의 기계학습 이론에 바탕을 두고 있으며, 손실함수들의 작동원리는 데이터 공간을 통계적으로 해석해서 유도하기 때문에 분산 및 불확실성을 최소화하기 위해서는 확률론의 이해가 필요하다.회귀분석에서 사용되는 L2-norm은 예측오차의 분산을 가장 최소화하는

2022년 5월 4일
·
0개의 댓글
·

5. Deep learning 학습방법 이해

기본적인 신경망 모델입력 데이터 X와 이 행렬을 다른 공간으로 보내주는 W의 곱을 통해 선형 모델을 표현할 수 있고, y절편에 해당하는 행렬인 b가 더해져 있는 선형 모델이 기본적인 신경망 모델이다.X : 데이터 행렬W : X의 포인트를 출력으로 바꾸어 주는 가중치 W

2022년 5월 2일
·
0개의 댓글
·

4. 경사하강법 (매운맛)

선형회귀분석 복습무어 팬로즈 역행렬을 이용해 주어져 있는 데이터와 가장 가까운 선형 모델을 찾을 수가 있다.경사하강법으로 선형회귀 계수 구하기주어진 선형회귀의 목적식을 이해를 하고, 그 목적식을 최소화하기 위해서 미분을 계산할 수 있어야 한다.선형회귀의 목적식은 실제

2022년 5월 2일
·
0개의 댓글
·

3. 경사하강법 (순한맛)

미분변수의 움직임에 따른 함수의 변화를 측정하기 위한 도구로써, 최적화에서 제일 많이 사용하는 기법미분은 함수 f의 주어진점 (x,f(x)) 에서의 접선의 기울기를 구한다.한 점에서 접선의 기울기를 알면 어느 방향으로 점을 움직여야 함수값이 증가/감소 하는지 알 수 있

2022년 5월 2일
·
0개의 댓글
·

2. matrix

행렬행렬은 행과 열이라는 인덱스를 가지며, 벡터를 원소로 가지는 2차원 배열벡터가 공간에서 한 점을 의미한다면 행렬은 여러 점들을 나타낸다.행렬 연산행렬끼리 같은 모양을 가지면 덧셈, 뺄셈이 가능하다.행렬 간 곱셈을 하기 위해서는 X의 열의 개수와 Y의 행의 개수가 같

2022년 5월 2일
·
0개의 댓글
·

1. Vector

벡터숫자를 원소로 가지는 리스트 또는 배열공간에서 원점으로부터 한 점까지 상대적 위치를 표현벡터에 숫자를 곱해주면 길이만 변함 → 스칼라곱 연산벡터끼리 같은 모양을 가지는 경우에만 덧셈과 뺄셈이 가능하며, 성분곱을 계산할 수 있다.벡터의 덧셈&뺄셈벡터의 덧셈과 뺄셈은

2022년 5월 2일
·
0개의 댓글
·