[부스트캠프] Day 1 회고

Gamchan Kang·2024년 8월 5일
0

배운 점

새로운 키워드

  • torch.stack(): torch.cat()dim에 따라서 텐서를 이어붙이는(concatenate) 반면, torch.stack()은 같은 크기의 텐서를 쌓아 고차원의 텐서를 만든다.
  • torch.empty(): 초기화 되지 않은 텐서 생성 → 초기화 시 리소스를 적게 사용한다.
  • torch.from_Numpy(): numpy 텐서를 pytorch 텐서로 변환. * numpy 텐서는 기본적으로 정수형으로 .float()로 타입 캐스팅 필요함
v = torch.from_Numpy(u).float()
  • torch.Tensor.clone() vs torch.Tensor.detach(): 전자는 기울기 그래프에 연결되어 있고, 후자는 기울기 그래프에서 분리된다.

인사이트

  • dim은 메모리 접근으로 생각하면 덜 헷갈린다. → 메모리 접근은 가장 바깥 괄호부터(행렬의 경우 행부터)
  • torch.rand vs torch.randn: 전자는 uniform, 후자는 standard 분포에서 난수를 생성한다.

좋았던 점

  • 이전에 파이토치 스터디를 진행해 자만했었지만, 모르는 내용을 여럿 찾을 수 있었다.
  • 당연한 것을 의심해보자.

아쉬운 점

  • 당연한 내용이라고 생각해 집중력이 흐려지는 순간이 여럿 있었다. → 깊게 생각해보기
  • 아주 기초적인 문법은 이해와 더불어 암기가 필요하다. → 의식적으로 사용해보자.
profile
Someday, the dream will come true

0개의 댓글