딥러닝은 행렬연산이 전부이다.... pytorch 기반 grad 구하고 update하기
loss1가 스칼라일 때 => loss1.backward() ()안에 1.0인 텐서가 생략 loss2가 (a,b)인 텐서일 때 => loss2.backward((a,b)인 텐서) loss1 = (3,1)tensor x loss2일 때 loss1.backward() = loss2.backward((3,1)tensor)