# Mathematics

18개의 포스트
post-thumbnail

Partial Derivative(편미분)

Partial Derivative(편미분) 입력 변수가 2개 이상인 다변수 함수에서 미분하고자 하는 변수 1개를 제외한 나머지 변수들은 상수로 취급하고, 특정한 한 변수에 대해서만 미분 하는 것 함수 f(x,y)에서 x에 대해 미분, x를 제외한 나머지는 상수 취급 ✔ $\frac{\partial f(x,y)}{\partial x}$ = $\frac{\...

2일 전
·
0개의 댓글
post-thumbnail

Derivative(미분) 정리

아주 작은 값을 대입하여 순간변화율(접점의 기울기)를 구하는 것→ 극한(limit)에서 △x는 0에 근접한다. 즉 입력 값 x의 변화량은 거의 없다는 의미이고, 변화가 있더라도 무시할 수 있을 만큼 작다는 의미 따라서 아래 두가지로 해석 할 수 있다.입력 변수x가(아주

2일 전
·
0개의 댓글

Vector 란?

Vector란 무엇인가??

2021년 10월 12일
·
0개의 댓글

[스터디] 딥러닝의 기본적인 이해와 선형회귀를 위한 수학

딥러닝의 기본적인 이해와 선형회귀를 위한 기초 수학

2021년 9월 21일
·
0개의 댓글
post-thumbnail

[수학이론] Calculus, Linear Algebra, Differentiation, and Integration

Calculus, 즉 미적분학은 무엇일까?이를 다양한 관점으로 바라볼 수는 있겠지만, 하나의 관점을 꼽자면 극한으로 바라보는 관점이 있을 수 있다.

2021년 9월 3일
·
0개의 댓글

[수학이론] Partial Difference Equation(편미분 방정식)

본 시리즈는 W.A., Strauss, Partial Differential Equations: An Introduction, 2nd Edition를 기반으로 하는 편미분방정식 개념에 관한 내용을 포함합니다.

2021년 9월 2일
·
0개의 댓글
post-thumbnail

RNN 첫걸음

소리, 문자열, 주가등의 데이터를 시퀀스 데이터로 분류시퀀스 데이터는 독립동등분포(i.i.d) 가정을 잘 위배하기 때문에, 순서를 바꾸거나 과거 정보에 손실이 발생하면 데이터의 확률분포도 바뀜 \- 개가 사람을 물었다 / 사람이 개를 물었다이전 시퀀스의 정보를 가지고

2021년 8월 8일
·
0개의 댓글
post-thumbnail

CNN 첫걸음

Convolution 연산은 Kernel을 입력벡터 상에서 움직여가면서 선형모델과 합성함수가 적용되는 구조 \- 고정된 커널을 입력벡터 상에서 움직여가면서 계산 적용 \- 활성화 함수를 제외한 Convolution 연산도 선형변환에 속함 \- kernel이

2021년 8월 8일
·
0개의 댓글
post-thumbnail

베이즈 통계학 맛보기

맛 엄청 보네사건 B가 일어난 상황에서 사건 A가 발생할 확률 P(A∩B) = P(B)P(A|B)베이즈 정리는 조건부확률을 이용하여 정보를 갱신하는 방법을 알려줌COVID-99의 발병률이 10%라고 하자. COVID-99에 실제로 걸렸을 때 검진될 확률은 99%, 실제

2021년 8월 6일
·
0개의 댓글
post-thumbnail

통계학 맛보기

통계적 모델링은 적절한 가정 위에서 확률분포를 추정(inference)하는 것이 목표유한한 개수의 데이터에서 관측하여 정확하게 알아내는 것은 불가능하므로, 근사적으로 확률분포를 추정해야데이터가 특정 확률분포를 따른다고 선험적으로(a priori) 가정한 후, 그 분포를

2021년 8월 6일
·
0개의 댓글
post-thumbnail

확률론 맛보기

딥러닝은 확률론 기반의 기계학습 이론에 바탕기계학습에서의 손실함수(loss function)들의 작동 원리는 데이터 공간을 통계적으로 해석해서 유도 - 예측이 틀릴 위험을 최소화하기 위해회귀 분속에서 손실함수로 사용되는 L2-norm은 예측오차의 분산을 가장 최소화하는

2021년 8월 4일
·
0개의 댓글
post-thumbnail

딥러닝 학습방법 이해하기

모델의 출력을 확률로 해석할 수 있게 변환해주는 연산출력물의 모든 값을 고려함분류(classification) 문제를 풀 때 선형모델과 softmax 함수 결합하여 특정 vector가 어떤 class에 속할 확률 예측softmax(o) = softmax(Wx+b)추론을

2021년 8월 4일
·
0개의 댓글
post-thumbnail

경사하강법 (gradient descent)

미분(differentiation)은 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구

2021년 8월 3일
·
0개의 댓글
post-thumbnail

행렬 (matrix)

행렬(matrix)는 벡터를 원소로 가지는 2차원 배열행(row)과 열(column)으로 이뤄져있음행렬의 특정 행(또는 열)을 고정하면 행(또는 열)벡터행렬의 행벡터 x\_{i}는 i번째 데이터행렬의 x\_{ij}는 i번째 데이터의 j번째 변수의 값행렬끼리 같은 모양을

2021년 8월 3일
·
0개의 댓글
post-thumbnail

벡터 (vector)

벡터는 숫자를 원소로 가지는 list 또는 array.공간에서의 한 점을 나타냄원점으로부터 상대적 위치를 표현함벡터에 숫자(scalar 값)을 곱해주면 길이만 변함. 즉, 방향은 변하지 않음.벡터끼리 같은 모양을 가지면 덧셈, 뺄셈을 계산할 수 있음.벡터끼리 같은 모양

2021년 8월 2일
·
2개의 댓글

The Math of Machine Learning 02 : Linear Algebra

Some useful matrix identities

2020년 5월 6일
·
0개의 댓글

The Math of Machine Learning 01 : Motivation

기계학습은 다양한 수학 분야의 도구들을 사용합니다. 이 문서는 기계학습 개론에 필요한 수학적 배경지식을 간략히 요약하기 위하여 작성되었습니다.Machine learning uses tools from a variety of mathematical fields. This

2020년 5월 6일
·
0개의 댓글