pytorch optmizer 는 보통 아래와 같이 선언된다.
optimizer = torch.optim.SGD([{'params' = model.parameters(),
'params' = model.parameters()}], lr=1e-3, ...)
learning_rate 에 직접 접근하기 위해서는
lr = optimizer.param_groups[0]['lr']
을 직접 수정해야한다.
pytorch에서 제공하는 함수로는
LambdaLR(optmizer, Lambda function(epoch))