오늘은 PyTorch에서 AutoGrad와 Optimizer를 위해서 사용되는 객체과 함수들을 소개할 예정이다.
그러면 이제 weight를 정의를 해야하는데 이는 nn.Parameter로 정의된다.
for epoch in range(epochs): # epoch마다 발생
optimizer.zero_grad() # 이전의 grad가 영향을 주지 않도록 초기화
output = model(input) # pred_y
loss = criterion(output,label) # loss 계산
loss.backward() # loss에 대해서 모든 W값 미분해 grad구함
optimizer.step() # W 업데이트