* 강사님의 자료는 저작권이 있기 때문에 배운 내용을 최대한 간단하게 정리하는 수준으로 작성하였습니다.
BGD (Batch Gradient Descent)
SGD (Stochastic Gradient Descent)
learning_rate = ..
epochs = ..
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
for epoch in range(epochs+1):
y_pred = model(x)
loss = F.mse_loss(y_pred, y)
optimizer.zero_grad()
loss.backward()
optimizer.step()
* written on June 29th