# Backpropagation

11개의 포스트
post-thumbnail

1.1 Artificial intelligence, machine learning and deep learning

AI ML Learning representation from data The "deep" in deep learning Understanding how deep learning works, in 3 figures What deep learning has ac

2021년 9월 16일
·
0개의 댓글
post-thumbnail

AI Tech 1주차 - DAY 3

선형모델과 활성함수를 합성한 함수 $d$개의 변수 $x_1, ..., x_d$ \* $w\_{ij}$ 연산 => $p$개의 선형모델 $o_1, ..., o_p$이때, 선형모델로 출력된 값은 확률벡터가 아닌 경우가 많기 때문에, 특정 벡터가 어떤 class 에 속할 확률

2021년 8월 5일
·
0개의 댓글
post-thumbnail

Neural network

행렬의 역할을 아주 잘 활용한 전형적이 예시가 NN이다.X 행렬에서 데이터를 모아둔다. W에서는 X의 데이터를 다른 차원으로 보내주는 역할을 한다.b 행렬은 y 절편을 열벡터에 한꺼번에 더해주는 역할을 한다.본래 (X, d) 차원이었던 X 행렬은 (n, p) 차원으로

2021년 8월 4일
·
0개의 댓글

5장. 오차역전파법 backpropagation - 2

구체적인 구현에 들어가기 전에 신경망 학습의 전체 그림을 복습해 보자. 다음은 신경망 학습의 순서이다.전제신경망에는 적응 가능한 가중치와 편향이 있고, 이 가중치와 편향을 훈련 데이터에 적응하도록 조정하는 과정을 '학습'이라 한다. 신경망 학습은 다음과 같이 4단계로

2021년 7월 27일
·
0개의 댓글

5장. 오차역전파법 backpropagation - 1

앞 포스팅에서의 수치미분은 단순하고 구현하기도 쉽지만 시간이 오래 걸린다는 것이 단점이다. 가중치 매개변수의 기울기를 효율적으로 계산하는 오차역전파법(backpropagation)을 이야기해보자. 이해하는 방법은 2가지가 있다. 수식을 통한 것 계산 그래프(compu

2021년 7월 27일
·
0개의 댓글
post-thumbnail

[딥러닝] RNN(동작- 백프랍)

둘 다 입력층, 은닉층, 출력층을 가짐왼쪽 그림은 노드를 DMLP와 비교하기 쉽게하기 위해 수직으로 배치한것!RNN은 샘플마다 은닉층의 수가 다름DMLP는 왼쪽에 입력, 오른쪽에 출력이 있지만, RNN은 매 순간 입력과 출력이 있음RNN은 가중치를 공유함DMLP의 가중

2021년 7월 8일
·
0개의 댓글
post-thumbnail

딥러닝 - 역전파(Backpropagation)

신경망 알고리즘 요약, 역전파, 경사하강법

2021년 7월 4일
·
0개의 댓글
post-thumbnail

Lecture 4 - Backpropagation and Computation Graphs

작성자 : 세종대학교 응용통계학과 조준혁

2021년 4월 28일
·
13개의 댓글
post-thumbnail

Backpropagation in CNN / CNN의 역전파 / cmu 11785 lecture12

11-785. Introduction to Deep Learning / Fall 2020 Lecture12를 듣고 요약/정리한 글입니다.CNN에서 역전파가 어떻게 이루어지는지 딱히 고민해본 적이 없었는데 생각보다 상당히 복잡하다는 것을 알게되었고, 그 상세한 과정들을

2021년 3월 13일
·
0개의 댓글
post-thumbnail

[210122 TIL] PyTorch, 역전파

학회에서 제공받은 <파이썬 딥러닝 파이토치> 책으로 파이토치 다시 한 번 제대로 공부해보기! clamp(), mm(), pow() backward(), item(), torch.no_grad(), grad(), grad.zero()

2021년 1월 23일
·
0개의 댓글
post-thumbnail

[CS224n] Lecture 4 - Backpropagation and Computation Graph

작성자 : 투빅스 13기 이재빈 > Contents Matrix Gradients for Neural Nets Computation Graphs and Backpropagation Tips and Tricks for Neural Networks 1. Matrix G

2020년 12월 28일
·
0개의 댓글