profile
veloger
post-thumbnail

[선형대수] 가우스 행렬과 기약 가우스 행렬의 차이

가우스 행렬을 이용해 방정식의 해를 구하는 방법 = 가우스 소거법 기약 가우스 행렬을 이용해 방정식의 해를 구하는 방법 = 가우스 조르단 소거법

3일 전
·
0개의 댓글

[선형대수] 일차종속 및 독립

일차 종속과 독립 1. 일차결합 정의 : 벡터 공간 V의 원소 v1,v2,v3...vn에 대하여 a1,a2,a3,...an이 임의의 실수일 때, a1v1+a2v2+a3v3+...anvn을 v1,v2,v3...vn의 일차 결합이라 한다. 일차결합으로 인한 최종 결과값

2022년 6월 25일
·
0개의 댓글
post-thumbnail

[선형대수] 4. 내적과 외적

내적 (inner product) " = uTv"

2022년 6월 25일
·
0개의 댓글

[선형대수] 3. 기저와 랭크

벡터 공간을 생성하는 선형 독립인 벡터들.기저는 유일하지 않다.(1,0), (0,1)도 기저가 될 수 있으며 (10,0). (0,20)도 기저가 될 수 있다. {s1,s2,s3,,,sn}이 공간 sfmf todtjdgksek.s1,s2,s3,,,sn은 선형 독립(lin

2022년 6월 24일
·
0개의 댓글
post-thumbnail

[선형대수] 2. 행렬식

행렬식(determinant) = 행렬의 특성을 하나의 숫자로 표현하는 방법 중 하나.= 정사각행렬을 스칼라로 변환하는 함수ex) 행렬식의 절댓값은 해당 행렬이 단위 공간을 얼마나 늘렸는지 혹은 줄였는지를 의미함. 따라서 행렬식의 절댓값이 1이라면 해당 행렬이 단위

2022년 6월 24일
·
0개의 댓글
post-thumbnail

[선형대수] 1. 선형 시스템

여러 개의 방정식이 주어졌을 때 연립 방정식으로 해(solution)을 수하는 방법을 배웠을 것이다. 행렬을 이용하면 연립방적식의 해를 쉽게 구할 수 있는데, 이때 연립 방정식은 다른 말로 선형 시스템이라고도 한다.본 페이지에서는 선형 방정식과 선형 시스템, 동차 선형

2022년 6월 24일
·
0개의 댓글

[선형대수] 일차종속 및 독립

정의 : 벡터 공간 V의 원소 v1,v2,v3...vn에 대하여 a1,a2,a3,...an이 임의의 실수일 때, a1v1+a2v2+a3v3+...anvn을 v1,v2,v3...vn의 일차 결합이라 한다. 일차결합으로 인한 최종 결과값(계산된 값) = 생성벡터공간 V의

2022년 6월 23일
·
0개의 댓글
post-thumbnail

[컴퓨팅 사고2]week 2-2

정의: 첫째 및 둘째 항이 1이며 그 뒤의 모든 항은 바로 앞 두 항의 합인 수열처음 여섯 항은 각각 1, 1, 2, 3, 5, 8이다. 편의상 0번째 항을 0으로 두기도 한다.?

2022년 6월 22일
·
0개의 댓글
post-thumbnail

[모두를 위한 딥러닝] #Why Relu?(not sigmoid)_ 2022.06.01

gradient => 그래프로 표현 =>매우 작은 gradient값을 전달받아, 계속 곱해지면서, 결국 값이 손실되는 현상 x가 0보다 크면 gradient는 y=x의 기울기 즉 항상 1이다 = 자기 자신의 값을 갖는다=> 잘 전달됨문제: x가 0보다 크면 gradie

2022년 5월 31일
·
0개의 댓글
post-thumbnail

[모두를 위한 딥러닝] Backpropagation & Forward 2022.06.01

target과 모델이 예측한 값의 차이= loss를 뒤로 전달하면서, 각 node의 weigt를 갱신시켜줌!아무리 깊고 복잡한 층으로 구성되어 있다 하더라도 Chain Rule을 활용하여 미분 값을 얻어낼 수 있다.Forward Pass 시 Local Gradient를

2022년 5월 31일
·
0개의 댓글
post-thumbnail

[모두를 위한 딥러닝] #23. XOR 문제 logistic regression으로 풀기_ 2022.06.01

\*각각의 network는 logistic regression이라고 가정.=>

2022년 5월 31일
·
0개의 댓글
post-thumbnail

[모두를 위한 딥러닝] #21. 딥러닝의 기본 개념: 시작과 XOR 문제_ 2022.06.01

딥러닝은 XOR문제에서 답을 선형적으로 구분하는 Line을 찾으려는 노력에서 시작되었다. AND/OR Problem은 linearly 하게 separate할 수 있는 line이 존재한다.하지만 아래와 같은 XOR문제는 선형방정식으로 풀지 못한다. \-> train 불가

2022년 5월 31일
·
0개의 댓글
post-thumbnail

[선형대수] 단위 행렬 및 여러 행렬 정리

행렬의 대각 원소(Diagonal Component)는 모두 1, 대각 원소가 아닌 원소들은 모두 0으로 이루어진 행렬이때 A-1은 1/A가 아님.기존 행렬의 행의 순서를 교체(치환)해주는 행렬\-> i번째 행과 j번째 행의 순서를 바꿈을 의미함.치환행렬은 단위행렬(I

2022년 5월 29일
·
0개의 댓글
post-thumbnail

[선형대수] 1. 벡터공간 및 여러 공간

왜 a, b, c 벡터가 다 원점을 시작점으로 하는가? a, b,c 벡터가 (0,0,0)을 관통하는 직선상에 놓인 세 점ㅇ

2022년 5월 27일
·
0개의 댓글
post-thumbnail

[모두를 위한 딥러닝] #1-20. Summary_[2]Optimizer_ 2022.05.26

GD (Gradient Descent)단순 GD의 문제점Stable SGD: Understanding the Role of Training Regimes in Continual Learning (NIPS 2020)ex) object detection하나의 입력 -> 여

2022년 5월 26일
·
0개의 댓글
post-thumbnail

[모두를 위한 딥러닝] #1-20. Summary_[1]BN_ 2022.05.26

Annealing the learning rate (Decay)셋 다 입력값의 범위를 조정함으로써, 모델의 일반화성능을 높이기 위한 방법.Normalization = 입력값(보통 픽셀값의 범위= 0~255)의 범위를 0~1로 조정.Standardization = 입력값

2022년 5월 26일
·
0개의 댓글