배운 점
새로운 키워드
torch.stack()
: torch.cat()
은 dim
에 따라서 텐서를 이어붙이는(concatenate) 반면, torch.stack()
은 같은 크기의 텐서를 쌓아 고차원의 텐서를 만든다.
torch.empty()
: 초기화 되지 않은 텐서 생성 → 초기화 시 리소스를 적게 사용한다.
torch.from_Numpy()
: numpy 텐서를 pytorch 텐서로 변환. * numpy 텐서는 기본적으로 정수형으로 .float()
로 타입 캐스팅 필요함
v = torch.from_Numpy(u).float()
torch.Tensor.clone()
vs torch.Tensor.detach()
: 전자는 기울기 그래프에 연결되어 있고, 후자는 기울기 그래프에서 분리된다.
인사이트
dim
은 메모리 접근으로 생각하면 덜 헷갈린다. → 메모리 접근은 가장 바깥 괄호부터(행렬의 경우 행부터)
torch.rand
vs torch.randn
: 전자는 uniform, 후자는 standard 분포에서 난수를 생성한다.
좋았던 점
- 이전에 파이토치 스터디를 진행해 자만했었지만, 모르는 내용을 여럿 찾을 수 있었다.
- 당연한 것을 의심해보자.
아쉬운 점
- 당연한 내용이라고 생각해 집중력이 흐려지는 순간이 여럿 있었다. → 깊게 생각해보기
- 아주 기초적인 문법은 이해와 더불어 암기가 필요하다. → 의식적으로 사용해보자.