TensorDatasetDataLoader batch 로 튀어나옴WrappedDataLoader 원래 있던거에서 __init__, __len__, __iter__ 만져서 수정nn.Sequentialclass Lambda(nn.Module):__init__ , forwardAdaptiveAvgPool2d -> global pool 동일broadcasting 주의 ,P \= P.sum(1, keepdims=True) in place 로 해야 더 빠르다.nn.ModuleList 그냥 list랑 뭐가 다를까?def collate_fn(batch):
batch # type: list 임.
batch를 풀어서 하거나, list 를 바꿔서 해야함.
```
- `list(zip(*batch))` --> trainspose임
- 한방에 batch를 처리하려면.. lambda 를 쓰는게 좋을 수도