
torch / torchvision / torchaudio + 포함된 CUDA 버전transformers, diffusers, accelerate, peft, deepspeed …flash-attn, xFormers, GroundingDINO, 각종 GitHub 연구 코드
nvidia-smi
[나의 스펙 정리]
GPU: NVIDIA GeForce RTX 4060 Laptop GPU
VRAM: 8GB (8188 MiB)
Driver Version: 566.14
CUDA Version: 12.7
nvidia-smi🐧 In Terminal
nvidia-smi --query-gpu=name,compute_cap --format=csv

—
🔗 https://developer.nvidia.com/cuda-gpus

—
나중에 환경 만든 뒤 코드로도 한번 더 검증하고 싶을 때 사용하는 방법
import torch
print(torch.cuda.get_device_name(0))
print(torch.cuda.get_device_capability(0))

—
🔗 https://forums.developer.nvidia.com/t/minimum-required-cuda-version-by-gpu/276955
🔗 https://pytorch.org/get-started/locally/
Linux (WSL 사용이면 Linux)pip 또는 condaPythonCUDA 11.8, CUDA 12.1, CUDA 12.6 등 옵션 중 선택
nvidia-smi 상단의 CUDA Version: X.Y → 이 드라이버가 지원하는 최대 CUDA 런타임 버전 의미💻 현재 내 노트북
nvidia-smi → CUDA Version: 12.711.8 / 12.6 / 12.8 이라면:✔️ 규칙 정리
드라이버 CUDA 버전 ≥ 선택할 CUDA 런타임 버전이 되도록 고름- 가능한 한 가장 높은 버전 중에서 이 조건을 만족하는 것을 선택⇒페이지 하단에 정확한 설치 명령어가 자동 생성됨
⇒ Linux & pip & Python & CUDA 12.6 조합
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu126
—
cu11x, cu12x 등) 안에는 CUDA 런타임 + cuDNN이 이미 포함되어 있음.flash-attn / GroundingDINO 같은 C++/CUDA ****확장 컴파일
직접 CUDA 코드 작성
을 할 때만 필요
—
🔗 https://pytorch.org/get-started/previous-versions/
어떤 Python으로 환경을 만들지 정하는 단계
—
예시:
🔗 https://pypi.org/project/transformers/
🔗 https://huggingface.co/docs/transformers/index
설치 기본:
pip install "transformers[torch]"
—
파이토치 + CUDA + GPU 아키텍처(Compute Capability) 버전에 예민
🔗 https://github.com/Dao-AILab/flash-attention
➡️ GitHub의 README.md 읽기

nvcc: command not found → CUDA Toolkit 없음 or PATH 문제CUDA_HOME=$CONDA_PREFIX 설정cuda_runtime.h: No such file or directory → CUDA 헤더 인식 실패CUDA_HOME / CUDA_PATH 환경변수 설정sm_XX is not supported → 내 GPU Compute Capability가 요구사항보다 낮음 (하드웨어 한계)—
공통 패턴
처음 보는 레포인데, 어떤 버전 조합으로 env를 만들지 정하는 루틴
README.mdrequirements.txtpyproject.toml / setup.cfgenvironment.yml (conda 환경 스냅샷)—
| 항목 | 값 예시 |
|---|---|
| Python | 3.9+ |
| torch | 2.1.0 ~ 2.3.x |
| CUDA | 11.8 / 12.1 |
| transformers | ≥ 4.39.0 |
| 기타 | xFormers 0.0.23, flash-attn 2.5 |
torch.cuda.is_available() == False드라이버 레벨 확인
nvidia-smi
torch CUDA 정보 확인 명령어

🐹 저는 지금 True로 나오지만 이 명령어를 쳤을 때, False가 나온다면 cuda를 사용 못한다는 뜻입니다!
nvcc: command not found → CUDA Toolkit 없음⚙️ Path설정은…




cuda_runtime.h: No such file or directory → CUDA 헤더 경로 인식 실패export CUDA_HOME=$CONDA_PREFIX
export CUDA_PATH=$CONDA_PREFIX
sm_XX is not supported → 내 GPU Compute Capability가 요구 버전보다 낮음💦 GPU를 쓰는 모델들은 라이브러리 버전에 매우 민감하다
💦 해당 모델에 대한 설치 버전을 상세히 알고 싶으면 GitHub의 README.me를, Hugging Face의 모델 설명을 잘 읽어보자
💦 그냥 무턱대고 버전 안맞추고 conda 환경을 맞추면 개고생🐕 한다
💦 모델마다 맞춤형 conda를 맞추고 내 그래픽 스펙을 잘 기억하고 있자
💦 버전은 항상 찾아보면서 맞춰보자! ⇒ Nvidia 공홈에 잘 나와있다
💦 버전 맞추기는 익숙해지지 않는다.. ⇒ 받아들이자!