TensorDataset
DataLoader
batch 로 튀어나옴WrappedDataLoader
원래 있던거에서 __init__
, __len__
, __iter__
만져서 수정nn.Sequential
class Lambda(nn.Module):
__init__
, forward
AdaptiveAvgPool2d
-> global pool 동일broadcasting
주의 ,P \= P.sum(1, keepdims=True)
in place 로 해야 더 빠르다.nn.ModuleList
그냥 list
랑 뭐가 다를까?def collate_fn(batch):
batch # type: list 임.
batch를 풀어서 하거나, list 를 바꿔서 해야함.
```
- `list(zip(*batch))` --> trainspose임
- 한방에 batch를 처리하려면.. lambda 를 쓰는게 좋을 수도