# 2 week

10개의 포스트

10. PyTorch Troubleshooing

PyTorch를 사용하면서 자주 발생할 수 있는 GPU에서의 Out of Memory(OOM) 에러 상황들의 예시를 보고 해결하는 법 까지 학습OOM(Out Of Memory)OOM이 해결하기 어려운 이유왜, 어디서 발생했는지 알기 어려움Error backtrackin

2022년 5월 11일
·
0개의 댓글

9. Hyperparameter tuning

끊임없이 실험들을 정리를 하고 그것을 바탕으로 좋은 모델을 찾아내는 것을 Hyperparameter tuning이라 한다.좋은 모델을 찾아내는 방법모델을 바꾼다데이터를 추가하거나 오류가 있나 확인하고 바꾼다Hyperparameter tuning일반적으로 가장 좋은 성능

2022년 5월 11일
·
0개의 댓글

8. Multi-GPU 학습

오늘날에는 데이터는 양이 많기 때문에 이를 처리하기 위한 장비가 필요하다.Model parallel다중 GPU에 학습을 분산하는 방법에는 모델을 나누거나 데이터를 나누는 두 가지 방법이 있다.모델을 나누는 것은 생각보다 예전부터 사용해 왔으며 하나의 연구 분야로 자리를

2022년 5월 11일
·
0개의 댓글

7. Monitoring tools for PyTorch

Pytorch를 이용해 학습 시 metric등을 기록할 때 대표적으로 Tensorboard와 weight & Biases 도구를 사용한다.TensorboardTensorFlow의 프로젝트로 만들어진 시각화 도구학습 그래프, metric, 학습 결과의 시각화 지원대부분의

2022년 5월 11일
·
0개의 댓글

6. 모델 불러오기

이미 학습이 되어있는 모델을 불러와서 우리의 데이터셋에 맞춰 다시 학습하는 방법인 전이학습이 많이 사용된다.전이학습을 하기 위해서는 학습의 결과를 지속적으로 관리 저장할 필요가 있다.model.save()학습의 결과를 저장하기 위한 함수학습의 결과는 두가지 형태로 저장

2022년 5월 11일
·
0개의 댓글

5. Pytorch Dataset & Dataloader

Dataset데이터 입력 형태를 정의하며, 데이터를 입력하는 방식을 표준화한다Class를 생성하여 그 데이터 셋을 어떻게 불러올것인지(init) 길이는 얼마인지(len), 하나의 데이터를 불러올때 어떻게 반환을 하는지(getitem)와 같은 입력 형태 정의유의점!데이터

2022년 5월 11일
·
0개의 댓글

4. AutoGrad & Optimizer

LayerLayer는 하나의 레고블럭을 정의하고, 레고블럭들을 연결해 다음단계로 넘긴 다음 역전파를 통해 학습되어야 하는 가중치들을 업데이트 하는 형태의 구조로 이해하면 된다.따라서, 딥러닝의 큰 아키텍쳐는 레고블럭처럼 하나하나 쌓아서 다음으로 넘긴다 라고 생각하면 된

2022년 5월 11일
·
0개의 댓글

3. PyTorch 프로젝트 구조 이해하기

ML code는 언제나 주피터에서? → X초기 단계에서는 대화식 개발 과정이 유리학습과정과 디버깅 등 지속적인 확인배포 및 공유 단계에서는 notebook 공유의 어려움쉬운 재현의 어려움, 실행순서 꼬임DL 코드도 하나의 프로그램개발 용이성 확보와 유지보수 향상 필요항

2022년 5월 11일
·
0개의 댓글

2. PyTorch Basics

PyTorch OperationsTensor다차원 Arrays를 표현하는 PyTorch 클래스사실상 numpy의 ndarray와 동일 (TF의 Tensor와도 동일)Tensor를 생성하는 함수도 거의 동일Array to TensorTensor data types기본적으

2022년 5월 11일
·
0개의 댓글

1. Introduction to PyTorch

딥러닝 프레임워크는 많은 종류가 있지만, 지금은 facebook의 PyTorch와 Google의 Tensorflow가 많이 쓰인다.keras , tensorflow , pytorch 비교Computational Graph연산의 과정을 그래프로 표현Define and R

2022년 5월 11일
·
0개의 댓글