# gpu

The transformational role of GPU computing and deep learning in drug discovery
2007 CUDA(Compute Unified Device Architecture) 를 Nvidia에서 내어놓음, C language의 extension이며 compiler와 debugger를 포함함. 이것은 연산 집약적 작업을 GPU accelerator에 porti

Koala 프로젝트 중간 점검
주제: 논문 레퍼런스 검색을 위한 미니 검색 엔진배경: 논문 작성 시 레퍼런스 검색이 가장 귀찮고 시간이 많이 드는 일임. DB의 모든 논문의 자료를 검색하여 찾고자 하는 정보와 가장 가까운 문장을 찾아주면 좋겠다는 취지에서 개발하게 됨.참고: chatgpt4 scho

[nvidia] GPU 사용량 측정하기
위 명령문을 실행하면 nvidia-smi 명령어가 1초에 한 번씩 실행되고, 결과가 출력됩니다. watch 명령어는 일정한 간격으로 명령어를 실행하는 명령어이며, -n1 옵션은 1초 간격으로 명령어를 실행하는 것을 의미합니다.
[우당탕탕] Ubuntu 서버에서 GPU 사용하기
python 실행 코드 내에서는 python 실행 코드GPU 번호는 0 말고 다른걸로 지정할 수 있다. GPU 사용 여부 확인하기watch -n .1 -d nvidia-smi \`\`\`

언리얼 5 GPU 크래쉬
언리얼 5 공부를 하면서 Lancher가 실행되지 않는 오류가 발생하였다..!위와 같은 로그를 보고, GPU 버전이 맞지 않아 다시 설치해 줘야 한다고 짐작하였다. https://www.nvidia.com/Download/index.aspx위 사이트에 들어가면

필요할 때 꺼내쓰는 ML Docker Container 세팅하는 법(GPU)
1. Docker Image Pull 처음에는 ubuntu부터 차례차례 쌓아올릴 생각도 했지만, 원하는 목적에 맞게 docker 이미지를 가져와서 base로 쓰는게 사실 제일 간단하고 시간 절약도 되는 것 같다. Docker Hub에서 가져오면 되는데, cuda 버전

cpu와 gpu 그리고 npu
CPU, GPU, 그리고 NPU는 컴퓨터나 스마트폰, 그리고 다양한 임베디드 시스템에서 사용되는 중요한 프로세싱 유닛들입니다. 각각의 특징과 용도에 대해 간단히 설명하겠습니다.정의: 컴퓨터의 두뇌라고 할 수 있는 핵심적인 처리 장치입니다.기능: 컴퓨터 프로그램의 명령어
AI 추론을 위한 최적의 하드웨어 스펙을 결정할 때 고려해야 할 네 가지
추론이 사용자 경험을 결정한다. AI 서비스를 개발하는 입장에서는, 모델의 학습이 더 중요하게 느껴진다. 따라서 학습을 위한 인프라에 자연스럽게 많은 금액을 투자하게 된다. 그러나 최종 사용자 입장에서는 모델 학습을 하는 데 걸리는 시간과 비용이 얼마나 되는지는 거의
개인용 Jupyter GPU 사용 확인 코드
을 통해서 gpu가 있을 시 gpu:0부터 시작하며, 출력값을 통해 사용하고 싶은 gpu를 선택할 수 있다.gpu:n 에 해당하는 값을 "0"자리에 써주면 되며, cpu 강제사용은 -1.( 출처 : https://jimmy-ai.tistory.com/121 )
GPU가 여러개 있으면 좋은 점
빠른 연산: 다중 GPU를 사용하면 병렬 처리 능력이 향상되어 모델 훈련과 추론(inference) 시간을 줄일 수 있습니다.메모리 제한 해결: 단일 GPU의 메모리 제한 때문에 학습할 수 없는 큰 모델을, 여러 GPU에 분산시켜 학습할 수 있습니다.인공지능을 하다보

Pytorch에서 memory사용 Guide
model loadingforward passbackward assoptimizer steprun next iterations1\. model loadingmodel parameter를 GPU로 보낸다.2\. forward passinput을 model에 보내고, 중간
transform & animation 으로 복잡한 애니메이션 만들어보기
transform 관련 CSS 속성들 transform 은 어떤 요소를 독립적으로 움직이게 만들고 싶을 때 사용한다. 본인 원래 위치에서 자유롭게 (다른 요소에 영향 없이) 이동하게 된다. rotate는 회전, translate는 좌표이동, scale은 확대축소, s

Fabric Manager Issue
잘 작동하던 Training Code가 작동하지 않았는데, 아래와 같은 에러메시지를 확인했다.환경 설정 문제라고 생각했으나, 본 이슈는 fabricmanager가 작동하지 않고 있는 것이 문제였다.먼저 아래 코드로 fabricmanager가 작동하는지 확인한다.만약 결

k8s triton inference server 클러스터 구축
ec2 쿠버네티스 클러스터 구축 포스팅에 이어 클러스터의 worker 노드에 nvidia gpu를 할당하는 내용을 다뤄보려고한다.NVIDIA Container Toolkit과 k8s용 nvidia 장치 플러그인을 설치해야한다.컨테이너에서 gpu를 사용하는 경우 호스트에

Window에서 PyTorch 설치 및 GPU 사용
아래 링크에서 각 컴퓨터 환경과 CUDA 버전을 선택하면 그에 해당하는 명령어가 보인다.https://pytorch.org/get-started/locally/본인의 경우 위와 같이 선택하여 아래 명령어가 생성되었다. pytorch 역시 tensorflow를
Window에서 Tensorflow 설치 및 GPU 사용
tensorflow를 설치하기 전에 가상환경을 만들어 만든 가상환경 안에 tensorflow를 설치하고자 한다. 본인은 설치할 tensorflow 버전에 맞춰 가상환경을 python 3.8로 설정하였다.💡가상환경을 만드는 이유가상환경을 만들면 가상환경마다 독립적인 환

(설치 전) GPU, CUDA, cuDNN 버전 확인
더 빠른 실습 환경을 구축하기 위해 CUDA, cuDNN를 설치하여 GPU 환경을 설정할 수 있는데요, 제가 anaconda 설치 이후부터 여러 사이트를 찾아보며 설치하고 실행했던 과정을 정리해보았습니다.cuda 설치 전 cuda compute capability 확인