[linux] cuda, driver, tensorflow, pytorch 버전 호환 정리

somnode·2021년 3월 20일
0

버전 호환

CUDAcuDNNNvidia DriverPythonTensorFlowPytorch
10.1 (10.1.105)7.6>= 418.392.7
3.5~3.7
2.1.01.4.0
1.5.0+cu101
1.5.1+cu101
1.6.0+cu101
1.7.0+cu101
1.7.1+cu101
10.1 (10.1.105)7.6>= 418.393.5~3.82.2.0
2.3.0
1.4.0
1.5.0+cu101
1.5.1+cu101
1.6.0+cu101
1.7.0+cu101
1.7.1+cu101
11.0 (11.0.3)8.0>= 450.36.063.6~3.82.4.01.7.0+cu110
1.7.1+cu110

버전 호환 확인

Nvidia Driver <-> CUDA

$ nvidia-smi

TensorFlow

>>> from tensorflow.python.client import device_lib
>>> device_lib.list_local_devices()

아래와 같이 GPU 장치가 출력되면 정상적으로 사용 가능하다.

[name: "/device:CPU:0"
device_type: "CPU"
memory_limit: 268435456
locality {
}
incarnation: 18387571059268247295
, name: "/device:GPU:0"
device_type: "GPU"
memory_limit: 5470482592
locality {
  bus_id: 1
  links {
  }
}
incarnation: 16530911522712283445
physical_device_desc: "device: 0, name: GeForce GTX 1060 6GB, pci bus id: 0000:01:00.0, compute capability: 6.1"
]

Pytorch

아래와 같이 torch.cuda.is_available()True가 나온다면 정상적으로 사용 가능하다.

>>> import torch
>>> torch.cuda.is_available()
True
>>> torch.cuda.current_device()
0
>>> torch.cuda.get_device_name(0)
'GeForce GTX 1060 6GB'

0개의 댓글