CPU가 아닌 GPU에서 Pytorch를 사용하려면 torch.cuda.is_available() 값이 true로 리턴되어야 한다.
GPU 환경에서 사용할 파이썬 가상환경을 여러번 설치하다 보니 쉽지가 않다.
먼저, slurm 명령어 srun을 이용한 방법이다.
# CPU version
conda install pytorch torchvision torchaudio cpuonly -c pytorch
# GPU version
# IMPORTANT: ensure you are in a gpu session or conda will install the cpu version
srun --gres=gpu:1 --pty bash
conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch
설치 후에는 정상적으로 설치했는지 python / import torch / torch.cuda.is_available()를 통해 확인해본다.
몇 번은 이렇게 해도 false가 뜨곤 했다.
(왜인지 도저히 모르겠음..)
false가 뜬다면 pip list와 conda list 명령어를 통해 torch가 cpu에 깔린 걸 확인하고 pip uninstall torch 혹은 conda uninstall torch 해주면 된다
pip list / conda list에 안 뜰 때까지 해당 작업을 반복해준다.
내가 또 사용한 방법은
conda install pytorch torchvision torchaudio pytorch-cuda=11.7 -c pytorch -c nvidia
이걸로 설치했을 때 해결되기도 했었다
왜 맨날 다르게 해결되는지는 정말 모르겠음
알고싶어요
가상환경마다 파이썬 버전을 다르게 구성해놔서 차이가 생기는 것 같기도 하고?