Linear Algebra#5

Rhahr·2022년 3월 26일
0

Linear_Algebra

목록 보기
5/5
post-thumbnail

#체(field)

환의 상위구조로서 특정한 성질을 만족하며 2개의 연산이 정의된 가환환이며 나눗셈환이다.(환의 상위개념이기 때문에 당연한 이야기이다.) 사칙연산이 자유로이 시행될 수 있는 대수구조이며 산술의 잘 알려진 규칙들을 만족한다. 유리수의 집합 Q, 실수의 집합R, 복소수의 집합 C가 체에 속한다. 정수의 집합 Z에 대해서는 만족하지 못하는데 이유는 위에서 언급했듯이 나누기 연산을 실행할 때에 정수체계 밖으로 넘어가기 때문이다. 다시한번 정리해보면 +와에 대하여 결합법칙 교환법칙 항등원 역원 4가지 성질을 모두 만족하는 대수구조를 체라한다.(연산에서 역원성질은 특별하게 0은 제외된다)

#선형생성

선형결합은 벡터들의 스칼라배와 덧셈을 통해 새로운 벡터를 만드는 연산으로 벡터공간에서 가장 기본적인 연산이다. 벡터공간 V의 공집합이 아닌 부분집합 S={v1,v2,v3,….vn} 내의 벡터들의 가능한 모든 선형결합으로 이루어진 V의 부분벡터공간을 S의 선형생성 span(S)이라한다. 예를 들어 S={(1,0),(0,1)}에 대하여 span(s)={k(1,0),m(0,1)}=R^2이다.

#차원

벡터공간 V의 부분집합 B가 선형 독립이고 V를 생성할 때 B를 V의 기저라 한다. 이때 B의 원소의 개수를 V의 차원 dim(V)라고한다. 기저에는 정규기저,직교기저가 존재하며 이둘을 합친 정규기저가 존재한다. 노름공간 V의 기저B를 정규기저라 하며 내적공간 V의 기저 B를 직교기저라 한다.

#PCA(Principal Component Analysis)

PCA는 n차원에 분포된 데이터들을 축소된 차원에 대입한다. 예를 들어 2차원 좌표평면 위에 데이터 (x,y),(x1,y1),(x2,y2),(x3,y3),…(xn,yn)이 존재 할 때 이 데이터 들의 분포를 데이터들의 분산이 가장 큰 방향벡터로서 분석해 주는 것이다. 영상인식분야에서 활용을 살펴보면 대표적인 예시로 eigenface가 있다. 45*40의 얼굴 이미지들을 1800차원의 벡터로 치환하고 이에 대하여 PCA를 수행하면 데이터의 차원의 수와 동일한 수의 주성분 벡터를 얻을 수 있다.

위 방법으로 얻어진 주성분벡터를 이미지로 해석한 것이 eigenface라고 하며 분산이 큰 방향벡터 순으로 나열해 보았을 때 위와 같은 양상을 띈다. 초기의 이미지에서는 얼굴전체의 특징을 나타내지만 후기의 이미지일 경우 세부적인 특성을 나타내며 극 후반으로 갈 경우 noise에 가까운 정보를 나타낸다. noise에 대해 조금 더 알아보자 PCA는 데이터의 집합을 n개의 주성분 벡터로서 표현하는 방법이다.eigenface의 앞부분에서는 얼굴의 전체적인 특징 즉 얼굴의 공통적인 파트를 담당하며 후반으로 갈수록 세부적인 파트 사람과 사람을 구분할 수 있는 특징에 대해서 반영하게 된다. PCA를 통해 얻어진 주성분 벡터들은 서로 수직인 관계를 띈다(PCA는 2차원 데이터에서 2개의 서로 수직인 주성분 벡터를 3차원 데이터에서는 3개의 서로 수직인 주성분 벡터들을 반환한다.) 이 말은 주성분 벡터들이 n차원 공간을 생성하는 기저 역할을 할 수 있다는 걸 의미한다.어떤 데이터의 주성분벡터들의 일차결합으로 표현하는 것을 karhunen-loeve transform(KLT) 또는 Hotelling transform이라한다. PCA란 입력데이터들의 공분산 행렬에 대한 고유값분해로 볼 수 있다. 고유벡터가 주성분 벡터로서 데이터의 분포에서 분산이 큰방향을 나타내며 대응되는 고유값이 그 분산의 크기를 나타낸다.

참고

-다크프로그래머-

profile
Git Hub: wlrma0108

0개의 댓글