정리하자면
쉽게 연결해 보면
conda install pytorch cudatoolkit=내CUDA버전 -c pytorch 한 줄로 설치하거나미리 정해진 버전표를 참고하기
conda 같은 가상환경을 활용하기
시스템 전체에 설치하는 대신, 프로젝트마다 별도의 공간(가상환경)을 만듭니다.
예시:
conda create -n myenv python=3.9
conda activate myenv
이렇게 하면 여기 안에만 PyTorch와 CUDA가 설치되고, 다른 프로젝트와 충돌하지 않습니다.
CUDA 툴킷은 따로 설치하지 않아도 되는 방법 사용하기
요즘은 PyTorch에 “CUDA 포함 버전”이 있어서, 따로 CUDA 툴킷을 깔지 않아도 됩니다.
예를 들어, 아래 명령어 하나면 PyTorch와 필요한 CUDA가 같이 설치돼요:
conda install pytorch=1.12 cudatoolkit=11.3 -c pytorch
이때 cudatoolkit=11.3은 PyTorch 공식표에 맞춰서 쓰는 겁니다. 그러면 내 시스템 드라이버가 CUDA 11.3을 지원하면 바로 잘 동작해요.
cuDNN은 PyTorch 패키지 안에 포함된 경우가 많음
만약 시스템에 CUDA 툴킷을 직접 깔아야 한다면
내 드라이버가 지원하는 CUDA 버전을 먼저 확인:
nvidia-smi
이 명령어를 치면 “CUDA Version: XX.X”라고 나옵니다.
그 다음, 그 CUDA 버전에 맞는 cuDNN 버전을 NVIDIA 홈페이지에서 다운받아서 설치하세요.
그리고 나서 PyTorch를 “CUDA 없이 CPU 버전만” 설치하거나, CPU/CUDA 버전이 분리되어 있다면 “내 CUDA 버전과 맞는” PyTorch를 설치하면 됩니다.
매번 버전 맞추기 귀찮으면 Docker 쓰기
Docker 이미지 안에는 이미 GPU 드라이버·CUDA·cuDNN·PyTorch가 다 설정돼 있어요(예: NVIDIA의 “CUDA Toolkit” 공식 이미지).
예시:
docker run --gpus all -it pytorch/pytorch:1.12.0-cuda11.3-cudnn8-runtime
이렇게 하면 “버전 충돌” 걱정 없이 바로 딥러닝 코드를 돌릴 수 있습니다.