
🚨 오류 발생
🐧 WSL :
Failed to initialize NVML: GPU access blocked by >the operating system
딥러닝 환경 세팅 중에 WSL(Ubuntu)에서 GPU가 잘 잡히는지 확인하려고:
nvidia-smi
를 쳤더니, 아래처럼 에러가 뜸.
Failed to initialize NVML: GPU access blocked by the operating system
Failed to properly shut down NVML: GPU access blocked by the operating system

처음엔 conda 환경이 꼬였나, CUDA 설치가 잘못됐나 싶어서 가상환경도 지우고 다시 만들고 별 짓을 다 했는데… 전혀 해결이 안 됨
▶️ 그래서 윈도우 쪽에서 바로 nvidia-smi를 쳐봤더니:
nvidia-smi
→ 여기서는 정상적으로 GPU 정보가 잘 나옴.
🐹 드라이버나 GPU 자체 문제는 아니고, WSL에서만 접근이 막힌 상태
Failed to initialize NVML: GPU access blocked by the operating system
여기서 포인트는 딱 두 가지
nvidia-smi는 내부적으로 NVML(NVIDIA Management Library) 를 사용해서 GPU 몇 개, 메모리 사용량 얼마… 같은 정보를 읽어옴정리하면,
Windows에선 GPU 잘 보이는데, WSL 쪽이 예전 상태/커널로 돌아가면서 GPU 패스스루가 막혀 있는 상황
내 경우에는 크게 보면 이 조합이었다:
nvidia-smi도 잘 됨▶️ WSL을 최신으로 업데이트하고 완전히 리스타트 해주지 않아서 생긴 문제
관리자 권한 PowerShell에서:
wsl --update
/usr/lib/wsl/lib 쪽 라이브러리가 최신으로 올라가면서 GPU 패스스루 관련 부분도 같이 업데이트같은 PowerShell에서:
wsl --shutdown

이제 Ubuntu 터미널을 다시 열고:
nvidia-smi
→ 이번엔 아래처럼 정상적으로 RTX 4060 정보가 뜸 🎉

nvidia-smi 확인WSL 문제인지, 아예 드라이버 문제인지부터 분리하기:
nvidia-smi
wsl -l -v
VERSION이 2여야 GPU 사용 가능wsl --set-version Ubuntu-24.04 2
Failed to initialize NVML: GPU access blocked by the operating system
Windows PowerShell
nvidia-smi
WSL 설정 확인
wsl -l -v
WSL 업데이트 & 재시작
wsl --update
wsl --shutdown
Ubuntu 재실행 후
nvidia-smi
🐹 이번 케이스도 결국 3번(wsl 업데이트 + shutdown) 으로 깔끔하게 해결됐다