local(데스크탑에 직접 설치하면서 정리함)
순서: 변경할 수 없는 조건들 먼저 확인하자
진행 환경
- RTX 2060 Super
- cpu : AMD Ryzen 7 2700X
- 운영체제 : Window 10
Compute capability 확인
필요하다면 이 시점에서, 사용하려는 라이브러리의 설치 요구사항(requirement)을 확인하자
라이브러리 = git clone, pip install 등으로 설치한 것들
Compute capability : 7.5
ctrl+F 로 그래픽 카드 이름 검색 추천
Compute capability : 7.5가 해당되는 범위
tensorflow 버전 확인 : 공식 문서의 GPU에서 cuDNN, CUDA 버전 확인
확인 할 것
4가지 버전 모두 맞아야 한다.
최신버전 tensorflow_gpu 2.7.0을 기준으로 진행한다.
Run this Command는 local이 아닌 가상환경에 CUDA를 설치 할 때 사용
tensorflow_gpu 최신버전이 CUDA 11.2를 지원한다.
하지만 PyTorch는 CUDA 11.3을 지원한다.
CUDA 11.2를 통해 설치 진행
혹시 11.2로 torch의 GPU사용이 불가능한 경우는 2가지 가상환경에 tensorflow gpu, torch를 따로 설치하고 관리하기를 바란다.
아니면 구글링해서 본인의 하드웨어(GPU,CPU)에 맞는 방법을 찾거나
CUDA 버전 선택하기 위헤서
대부분 문제가 생기지 않는 부분
4-B.에서 nvidia가 권장하는 그래픽 드라이버 버전을 선택하면 된다.
다른 버전을 설치해야하면 아래 문서, 사진 참고
CUDA 버전별 저장소에서 설치
버전이 많다...
11.2로 시작하는 버전을 확인해보자
version = 윈도우 10 선택!
11.2.0과 그래픽 카드 드라이버 버전 460.89가 맞는다.
필요 드라이버 버전 확인
[주관적인 의견]
exe network 보다 exe local을 추천
exe network는 왠지 설치가 느린 것 같다.
실시간 다운로드가 더 느린가?
현재 드라이버 버전이 권장 버전(위 사진의 빨간 상자)과 다르다면, 제거 후 버전에 맞는 드라이버 설치
적절히 선택 후 검색!
우리가 필요로 하는 460.89 버전이 없다.
조건을 변경하고 다시 검색
찾았다!!
안나올 경우 구글링!!
다운로드!!
최신 버전보다 우리의 의도대로 동작하는 버전을 선택하는 것이 좋다.
그래서 win 11 업데이트도 안하고 있다.
cuDNN Archive에서 ctrl + F로 CUDA 버전 검색(11.2)
11.2를 위한 버전은 2가지
11번대 모두 호환되는 11.X 버전은 2가지
11.2를 위한 2가지 버전 : cuDNN 8.1
11.X를 위한 2가지 버전 : cuDNN 8.2
11.x버전으로 하신분은 댓글로 알려주세요.
다운 완료
아래 버전(cuDNN v8.1.0 (January 26th, 2021), for CUDA 11.0,11.1 and 11.2)의 cuDNN 버전 : v8.1.0.77
위에 버전(cuDNNv8.1.1 (Feburary 26th, 2021), for CUDA 11.0,11.1 and 11.2)의 cuDNN 버전 : v8.1.1.33
참고 : 설치된 cuDNN버전 확인
명령 프롬프트 창(게시글 초반 부분 참고)에 nvcc -V
다운로드 완료 사진
그래픽 드라이버 -> CUDA -> cuDNN 순서로 설치해야한다.
그래픽 드라이버, CUDA, cuDNN가 끝날 때마다 컴퓨터 재시작 추천
그래픽 드라이버, CUDA, cuDNN (3개) 설치 = 3번 재시작
귀찮음이 동작하지 않는 것보다 낫다.
설치 여부 확인
설치 되어있는 모습
CUDA 제거는 앱 및 기능에서 5.에서 확인
그래픽 카드 제거는 안전모드+DDU로
cuDNN은 설치 폴더로 찾아가서 직접 제거
굳이 이렇게 까지? 싶으면 건너 뛰어도 된다. 하지만 만약의 에러 발생 확률을 줄이기 위해서는 정석대로 하는 것이 가장 안전하다.
혹은 작성 시점의 최신버전, DDU20v18.0.4.9의 다운로드 링크
설치는 예 / 다음 만 누르기
설치는 예 / 다음 만 누르기
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA
3-1. 설치한 CUDA 버전 폴더로
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2
없으면 새로 만들기!
v11.2 대신 현재 CUDA 버전 사용
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2\bin
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2\include
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2\lib
아나콘다 가상환경에 설치하는 이유
특정한 python 버전 (본 글에서는 3.9)를 설치하기 위해서
가상환경이 아닌 local(데스크탑, 서버)에 설치해도 된다.
conda create --name torch python=3.9
cudatoolkit 부분만 제거(이미 local에 설치 했으므로)
conda install pytorch torchvision torchaudio -c pytorch
주의
현재 활성화된 가상환경 (torch)에 설치됨
명령 프롬프트에서 python이라고 입력하면, python ide가 실행된다.
python
import torch
torch.cuda.is_available()
tensorflow는 Microsoft Visual C++를 설치해줘야한다.
tensorflow 공식 문서에서 차례대로 진행하자.
3-A.에서 말했던 것처럼 작성 시점의 최신버전 2.7.0 설치
pip install tensorflow-gpu==2.7.0
명령 프롬프트에서 python이라고 입력하면, python ide가 실행된다.
python
from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())
글을 다시 읽어보니 이런 생각이 들었다.
누구나 따라할 수 있을까?
tensorflow 혹은 torch 같은 딥러닝 프레임워크에서 local에 gpu를 설치하는 것은 인터넷에 수많은 자료가 있지만, 왠지 모르게 실패하는 경우가 많았다. 입문할 때 겪은 경험은 의지를 꺾어서 아주 치명적이다.
그래서 누구나 성공하는 방법을 쓰고 싶어서,
하지만 글이 지나치게 방대하고, 절차가 많아서 이 글로 인해서
tensorflow, torch를 local에 설치하는 것은 어렵구나
라고 생각할 까봐 걱정이된다.
훨씬 간편한 방법 들이 있다.
특히 colab, kaggle의 경우 무료 버전으로 충분히 연습, 실습을 할 수 있다. 클라우드 기반이라 어느 장소, 어느 기기라도 코드가 저장되니 편하다. 처음하는 사람은 이 글에서 설명한 방법보다 colab, kaggle을 이용하는 것을 강력 추천한다.