당일 날 새벽 4시까지 과제하고 제출한 뒤 깜빡하고 글을 안 쓰고 바로 자버려서..다음 날이지만 작성한다. 그마저도 과제하다 늦게 씀
논문을 보다보면 직접 구현해야 할 경우가 있으므로, Autograd, Optimizer 등 Model과 구성 요소들을 직접 구현 할 줄 알아야 한다.
Layer는 Block처럼, 하나하나 쌓아서 다음으로 넘긴다고 생각하면 편함.
torch.nn.Module
nn.Parameter
Backward
학습 시 optimizer.zero_grad(), loss, optimizer 지정, backward, optimizer.step()은 반드시 거쳐야한다.
transforms
Dataset
DataLoader
과제로 custom model을 구현하기 위해 torch의 module과 tensor를 공부하는 과정에서 궁금했던 부분에 대한 질의응답을 하였다.
과제 양이 비교적 많아 해결해야 할 부분이 많았기에 많은 얘기를 하지는 못했다.
과제 자료를 통해 custom model을 만들기 위해 필요한 내용과 만드는 법에 대해 실습을 진행하였는데, 내용이 너무 많아 앞으로도 계속 봐야 할 것 같고 실제 구현하는 연습도 많이 필요할 것 같다.
공식 Document에서 소스 코드를 보고 비교하거나 클론 코딩을 해보는 편이 확실할 것 같다.
지난 주차보다 과제 양이 훨씬 많아 과제만 하루종일 하였다.
부스트캠프에 들어오기 전에 기대했던 것처럼, 내가 알아야 할 모든 것들이 담긴 것 같아 방향성이 보여 만족스러우면서도, 아직 일부분밖에 이해하지 못하고 구현 능력은 초심자 수준인 것 같아 갈 길이 멀다고 느낀다.
다음 주 부터의 P-stage를 위해선 반드시 익혀야 할 것 같다.
이번 주 과제가 많으니 과제만 확실히 하는 걸 목표로 해야겠다.