torch.nn.Module [5]

J·2021년 6월 9일
0

pytorch

목록 보기
8/23

torch.nn.Module.zero_grad(set_to_none=False)

공식설명은 아래와 같다.

Sets gradients of all model parameters to zero. See similar function under torch.optim.Optimizer for more context.

모델 parameter의 gradient를 모두 0으로 만든다.

torch.nn.Module.to(*args, **kwargs)

공식설명은 아래와 같다.

Moves and/or casts the parameters and buffers.

모든 버퍼와 parameter를 옮긴다.

torch.nn.Module.requiresgrad(requires_grad = True)

공식설명은 아래와 같다.

Change if autograd should record operations on parameters in this module.

This method sets the parameters’ requires_grad attributes in-place.

This method is helpful for freezing part of the module for finetuning or training parts of a model individually (e.g., GAN training).

해당 모듈에서 autograd가 매개변수에 대한 연산을 기록하는지에 대한 여부를 변경한다. 이 method는 parameter의 requires_grad attribute를 결정한다. 이 방법은 finetuning하거나 어떤 모델의 부분을 개별적으로 학습할 대 유용하다.

torch.nn.Module.register_parameter(name, param)

공식설명은 아래와 같다.

Adds a parameter to the module.

The parameter can be accessed as an attribute using given name.

모듈에 parameter를 추가한다. parameter는 주어진 이름을 이용하여 attribute로 접근이 가능하다.

profile
I'm interested in processing video&images with deeplearning and solving problem in our lives.

0개의 댓글