CUDA | cuDNN | Nvidia Driver | Python | TensorFlow | Pytorch |
---|---|---|---|---|---|
10.1 (10.1.105) | 7.6 | >= 418.39 | 2.7 3.5~3.7 | 2.1.0 | 1.4.0 1.5.0+cu101 1.5.1+cu101 1.6.0+cu101 1.7.0+cu101 1.7.1+cu101 |
10.1 (10.1.105) | 7.6 | >= 418.39 | 3.5~3.8 | 2.2.0 2.3.0 | 1.4.0 1.5.0+cu101 1.5.1+cu101 1.6.0+cu101 1.7.0+cu101 1.7.1+cu101 |
11.0 (11.0.3) | 8.0 | >= 450.36.06 | 3.6~3.8 | 2.4.0 | 1.7.0+cu110 1.7.1+cu110 |
$ nvidia-smi
>>> from tensorflow.python.client import device_lib
>>> device_lib.list_local_devices()
아래와 같이 GPU 장치가 출력되면 정상적으로 사용 가능하다.
[name: "/device:CPU:0"
device_type: "CPU"
memory_limit: 268435456
locality {
}
incarnation: 18387571059268247295
, name: "/device:GPU:0"
device_type: "GPU"
memory_limit: 5470482592
locality {
bus_id: 1
links {
}
}
incarnation: 16530911522712283445
physical_device_desc: "device: 0, name: GeForce GTX 1060 6GB, pci bus id: 0000:01:00.0, compute capability: 6.1"
]
아래와 같이 torch.cuda.is_available()
이 True
가 나온다면 정상적으로 사용 가능하다.
>>> import torch
>>> torch.cuda.is_available()
True
>>> torch.cuda.current_device()
0
>>> torch.cuda.get_device_name(0)
'GeForce GTX 1060 6GB'