# Linear Algebra

99개의 포스트

[Day 13] [AI부트캠프] SECTION 01 high-dimensional data

SECTION 01 Sprint 3 Linear Algebra dimensionality reduction techniques

약 8시간 전
·
0개의 댓글

[선형대수학] 벡터(2)

: 두 벡터가 가리키는 점 사이의 거리: 사인&코사인 함수sin𝜃 는 0에 가까워질수록 0에 가깝고, 90에 가까워질수록 1에 가까워짐cos𝜃 는 0에 가까워질수록 1에 가깝고, 90에 가까워질수록 0에 가까워짐: 𝑎^𝑇𝑏=‖𝑎‖‖𝑏‖cos𝜃: 두 벡터

2021년 11월 22일
·
0개의 댓글
post-thumbnail

[Linear Algebra] 5. Orthogonality and Least Squares

.어떠한 inconsistent system of equation이 solution이 없을때 approximate solution을 구할 필요가있다. 이번 챕터에서는 ortho

2021년 11월 19일
·
0개의 댓글
post-thumbnail

[Linear Algebra] 4. Eigenvalues and Eigenvectors

.일반적인 transformation $\\bold{x} \\mapsto A\\bold{x}$는 벡터를 다양한 방향으로 움직일 수 있지만, 종종 A의 움직임이 매우 simple

2021년 11월 17일
·
0개의 댓글
post-thumbnail

[Linear Algebra] 3. Determinants

2장에서 2 $\\times$ 2 matrix A = $\\begin{bmatrix} a \\ b \\ c \\ d \\end{bmatrix}$가 있을때 det A = ad

2021년 11월 15일
·
0개의 댓글

전사함수와 일대일함수

전사(ONTO) : 공역 = 치역, 치역은 공역의 부분집합이므로 같은 때가 가징 커짐정의 : 정의역 수 > 공역 수ONE T0 ONE(선형 독립과 같다); 일대일 함수ONE TO ONE이냐 아니야의 의미는 선형 독립이냐 종속이냐 의미다!! 왜?Fully connecte

2021년 11월 14일
·
0개의 댓글

선형변환 with Neural Networks

Fully-connected layers(linear layer)2차원에서 2차원으로 변화x1 = 2 , x2 = 1

2021년 11월 14일
·
0개의 댓글

선형변환

기초 용어Domain: 정의역으로 x값에 넣을 수 있는 수들의 집합.image: 상으로, 특정 y값이 나올 때 대입한 x의 값들의 집합f(x)= 2x+1 일때, y= 5라면, x=2 (상)Co-Domain: 공역으로 y값이 될 수 있는 수들의 집합Range: 치역으로

2021년 11월 14일
·
0개의 댓글

Code of Vector

역수 취할 때 숫자가 맞아 떨어지면 좋으나 그렇지 못한 무한소수가 되는 경우 우리는 근사치를 구해야합니다. 그때 주는 미묘한 차이가 우리가 보기엔 작아서 영향을 크지 않다고 생각할 수도 있으나 막상 알고리즘에겐 그렇지 않습니다즉,역수-> 근사치로 인해서 생기는 문제입니

2021년 11월 14일
·
0개의 댓글

Linear System

: 계수를 갖고 있는 여러 변수들의 합이 상수이다위의 방정식을 내적으로 표현정의 : 방정식들의 집합예시 : 연립 방정식벡터화 정의: 정사각 행렬에서 가운데 있는 값들이 1이고 나머지는 0이다. 어떤 벡터랑 곱해져도 자기 자신만 나오기 때문이다. 정의 : 정사각행

2021년 11월 14일
·
0개의 댓글

선형 대수의 시작

스칼라(scalar): 단순한 숫자벡터(Vector) : 숫자들이 차례대로 list된 것행벡터(row vector): 가로로 길쭉한 벡터1 \* n열벡터(column vector):세로로 길쭉한 벡터(Vertical) n \* 1집합(set) : 숫

2021년 11월 1일
·
0개의 댓글

(인공지능을 위한) 선형대수 기초2

벡터에 대해 어느정도 알았다면 벡터의 아버지(?) 느낌이 나는 행렬에 대해 알아보자. 굳이 저렇게 표현한 이유는 여러개의 벡터를 하나의 행렬로 표현이 가능하여 그렇게 한것이다. 행렬에 대한 기초같은 경우에는 이 블로그에서 매우 자세하게 설명했다. https://gos

2021년 10월 17일
·
0개의 댓글

(인공지능을 위한) 선형대수 기초1

오늘은 벡터에 대해 설명해 보려고 한다.간간히 인공지능에 필요한 수학들에 대한 개념(?)들을 작성해보려고 한다. 기본적으로 미적분, 선형대수, 확률과 통계 등이 있는데, 정말 인공지능을 하기 위한 최소한의 수학을 복습하는 겸 작성해보려고 한다.시작해보자!!👍보통 이과

2021년 10월 11일
·
0개의 댓글
post-thumbnail

[Linear Algebra](python) Rank, Span

🧩 Matrix _ Rank, Span 📌 Rank 📌 Span

2021년 10월 3일
·
0개의 댓글
post-thumbnail

가우스 소거법, LU분해

우리는 지금부터 가우스 소거법 (Gaussian Elimination)과 LU 분해 (LU Decomposition)에 대해서 공부해볼 것이다.

2021년 10월 2일
·
0개의 댓글
post-thumbnail

[Linear Algebra] (python) Eigenvalue, Eigenvector, PCA

Eigenvalue와 Eigenvector를 사람에 투영하여 설명한다면Eigenvalue = 외형(살이 찌거나 빠지거나, 피부가 그을리는 등)Eigenvector = 그사람 그 자체(다이어트를 한다고 해서 사람 자체가 바뀌지는 않음)그래서 PCA는 Eigenv

2021년 10월 2일
·
0개의 댓글
post-thumbnail

벡터(vector)의 기본 특성들

이 문서는 필자가 배운 벡터의 기본적인 특성들에 대해서 기술한다. 기본적이지 않을 수도, 내용이 틀릴 수도 있으니 피드백은 언제나 환영이다!

2021년 10월 1일
·
0개의 댓글
post-thumbnail

Ax=b. 선형대수학의 시작?!

데이터분석을 공부하기 시작한 당신! 선형대수학을 배워야하는 당신!걱정하지 마라! 내가왔으니!그렇다. 나도 잡혀왔다.그래도 어차피 해야하는거 왜 하는지나 알고 시작해보자!선형대수(linear algebra)는 데이터 분석에 필요한 각종 계산을 돕는 학문이다.

2021년 10월 1일
·
0개의 댓글