공식설명은 아래와 같다.
Sets gradients of all model parameters to zero. See similar function under torch.optim.Optimizer for more context.
모델 parameter의 gradient를 모두 0으로 만든다.
공식설명은 아래와 같다.
Moves and/or casts the parameters and buffers.
모든 버퍼와 parameter를 옮긴다.
공식설명은 아래와 같다.
Change if autograd should record operations on parameters in this module.
This method sets the parameters’ requires_grad attributes in-place.
This method is helpful for freezing part of the module for finetuning or training parts of a model individually (e.g., GAN training).
해당 모듈에서 autograd가 매개변수에 대한 연산을 기록하는지에 대한 여부를 변경한다. 이 method는 parameter의 requires_grad attribute를 결정한다. 이 방법은 finetuning하거나 어떤 모델의 부분을 개별적으로 학습할 대 유용하다.
공식설명은 아래와 같다.
Adds a parameter to the module.
The parameter can be accessed as an attribute using given name.
모듈에 parameter를 추가한다. parameter는 주어진 이름을 이용하여 attribute로 접근이 가능하다.