CUDA는 2개의 API를 가지고 있는데, 하나는 runtime API이고 다른 하나는 driver API이다.
각 API가 각자의 version을 가지고 있다.
driver API는 GPU driver installer에 의해 설치되고,
runtime API는 CUDA toolkit installer에 의해 설치된다.
만약 GPU driver과 CUDA를 별도로 설치했다면, 이 둘의 version이 다를 수 있다.
nvidia-smi는 GPU driver installer에 의해 설치되는 것으로, driver API의 version을 보여주며,
nvcc는 CUDA toolkit에 의해 설치되는 것으로, CUDA runtime version을 보여준다.
nvidia-smi:
드라이버가 지원하는 최대 CUDA 버전
nvcc -V
: 실제로 설치된 CUDA 버전
나는 이미 1을 한 상태. 이 상태에서 가상환경에 따로 cuda 를 설치하면 어떻게 될까?
→ tensorflow-gpu에서는 따로 cuda toolkit, cudnn 안설치해줌
→ conda로 설치는 잘되는 듯