nn.dataparrel 사용시 GPU 몰림 현상

HeyHo·2022년 11월 30일
0

NeRF 코드를 'model = nn.DataParallel(model).to(device)' 를 사용하여 GPU 분산처리를 시도하였다.

  • 문제점
    그러나 다음과 같이 한 GPU에 memory가 쏠리는 문제가 발생하였다.

모델에서 weight는 분산되서 사용될 지 몰라도, loss value의 경우 한 GPU에 몰려서 계산된다고 한다.

profile
Coputer vision, AI

0개의 댓글