profile
공부한 것과 관심 있는 것을 정리합니다.

MLE

최대가능도 추정법 또는 최대우도법이라고 불림.PDF에서는 모수 $\\theta$가 이미 알고 있는 상수이고 $x$가 변수임.ex) $x$가 $n$개의 변수로 이루어진 벡터, $\\theta$가 $m$개의 변수로 이루어진 벡터$$x = (x_1,x_2,\\cdots,x_

2024년 1월 31일
·
0개의 댓글
·

SVD(Singular Value Decomposition)특잇값 분해

이전 포스팅이였던 EigenDecomposition의 한계점을 해결할 수 있다.square matrix(nxn), symmetric matrix, 두가지 단점이 있었습니다.$$A=U\\Sigma V^T$$위 수식이 SVD입니다 $U=(n,n),V=(m,m), \\Sig

2023년 7월 31일
·
1개의 댓글
·

Eigen-Decomposition (고유값 분해),PCA(주성분분석)

Eigen Value Decomposition으로 고유값 분해라고 한다.수식으로 조금 더 쉽게 다가가보자 A$\\vec{v_1}$ = $\\lambda_1$$\\vec{v_1}$A = matrix, $\\vec{v_1}$=eigen vector, $\\lambda$=e

2023년 7월 27일
·
0개의 댓글
·

Gram-Schmidt Orthogonalization, QR-factorization

Gram-Schmidt Orthogonalization 그람슈미츠는 임의의 벡터들로 orthogonal한 벡터들을 구하는 과정입니다. 임의의 다른 벡터 4개가 존재한다고 가정하겠습니다.(Linear independent, non-orthogonal) $a1, a2

2023년 6월 19일
·
0개의 댓글
·

Null space

orthogonal = 직각, 직교의 projection = 사영,투영,투사

2023년 6월 19일
·
0개의 댓글
·
post-thumbnail

Least Squares

항상 공부하지만 쉽지 않습니다,,알면 알수록 더 깊은 학문이네요 머리로 이해는 했지만 글로 쓰려니 더욱 찾아보고 오히려 더 공부하는 느낌이 듭니다..🥲 그럼 시작하겠습니다!😇 Least Squares 최소제곱법으로도 불리는 방법은 ml- linear regress

2023년 5월 21일
·
0개의 댓글
·

Linalg

선형대수학을 공부했던 내용을 정리하고 기록하려고 합니다. 제가 이해했던 것들을 위주로 적기 때문에 틀리거나 부정확한 것들이 있을 수 있습니다. 😢 그럼 시작하겠습니다!! > Linear dependence와 independence 구별 선형 독립과 선형 종속

2023년 5월 13일
·
0개의 댓글
·

DB?

DB? Data? DB는 Database의 줄임말로 데이터의 저장소다. 그럼 데이터는 뭐에요? 정보 자료의 의미이며 여러 다른 정의가 있겠지만 여기서의 데이터는 컴퓨터가 처리할 수 있는 문자나 숫자 그리고 소리와 같은 것들의 형태로 된 정보를 data라고 한다.

2023년 2월 28일
·
0개의 댓글
·
post-thumbnail

확률과 통계(1)

Prove $$\\begin{pmatrix}n\\r\\\\end{pmatrix} = \\begin{pmatrix}n\\n-r\\\\end{pmatrix}$$ Proof $$\\begin{pmatrix}n\\n-r\\\\end{pmatrix} = \\frac{n!}{(

2023년 2월 21일
·
0개의 댓글
·
post-thumbnail

확률과 통계(2)

조건부 확률 $$ P(E|F) = \frac{P(EF)}{P(F)}\quad for \;P(F) > 0 $$ 읽을 때는 Probability of E given F 라고 읽는 것이 편해보인다. $$ P(EF) = P(F)P(E|F) = P(E)P(F|E) $$

2023년 2월 21일
·
0개의 댓글
·

DL.1

deeplearning이란?$\\theta^\\tau \\gets A\\phi(L\\tau,D^{train}\\tau,f\_\\theta)$$m(\\theta^\\tau) \\gets P\\tau(D^{valid}\\tau,f{\\theta^\*\_\\tau})$\*\

2022년 12월 5일
·
0개의 댓글
·