[Pytorch] optimizer scheduler

이승화·2022년 12월 31일
0

python

목록 보기
2/2

pytorch optmizer 는 보통 아래와 같이 선언된다.

optimizer = torch.optim.SGD([{'params' = model.parameters(), 
						      'params' = model.parameters()}], lr=1e-3, ...)

learning_rate 에 직접 접근하기 위해서는

lr = optimizer.param_groups[0]['lr'] 

을 직접 수정해야한다.

pytorch에서 제공하는 함수로는

  1. torch.optim.lr_schedular.LambdaLR
LambdaLR(optmizer, Lambda function(epoch))

0개의 댓글