- TensorFlow
- Static graphs (Define and Run)
- 그래프를 먼저 정의 → 실행시점에 data feed
- Production, Cloud, Multi-GPU 등 scalability에 강점을 가짐
- PyTorch
- Dynamic computation graphs (Define by Run)
- 실행을 하면서 그래프를 생성하는 방식
- 즉시 확인 및 디버깅 가능 (pythonic code)
- 사용하기 편한 장점
- GPU support, Good API and community
# numpy - ndarray
import numpy as np
n_array = np.arrange(10).reshape(2,5)
print(n_array)
print("ndim: ", n_array.ndim, "shape: ", n_array.shape)
# pytorch - tensor
import torch
t_array = torch.FloatTensor(n_array)
print(t_array)
print("ndim: ", t_array.ndim, "shape: ", t_array.shape)
import torch
data = [[3, 5, 10], [2, 3, 6]]
x_data = torch.tensor(data)
x_data.device
# device(type='cpu')
if torch.cuda.is_available():
x_data_cuda = x_data.to('cuda')
x_data_cuda.device
# device(type='cuda', index=0)
import torch
tensor_ex = torch.rand(size=(2,3,2)) # torch.size([2,3,2])
tensor_ex.view([-1, 6]) # torch.size([2,6])
tensor_ex.reshape([-1, 6]) # torch.size([2,6])
view와 reshape의 차이 : contiguous
-> https://inmoonlight.github.io/2021/03/03/PyTorch-view-transpose-reshape/
-> view 사용 추천 (메모리 관리 차원)
squeeze and unsqueeze
import torch
w = torch.tensor(2.0, requires_grad=True)
y = w**2
z = 10 * y + 25
z.backward()
w.grad # tensor(40.)
a = torch.tensor([2., 3.], requires_grad=True)
b = torch.tensor([6., 4.], requires_grad=True)
Q = 3*a**3 - b**2
external_grad = torch.tensor([1., 1.])
Q.backward(gradient = external_grad)
a.grad # tensor([36., 81.])
b.grad # tensor([-12., -8.])
- 깔끔한 코드
- 사람이 이해하기 쉬운 코드 (readability)
- 변경 용이한 코드
- 유지보수 비용이 낮은 코드
- 사용하는 코드만 만들기 (Caller Create)
- 리팩토링 (Refactoring)
- 코드 읽기 (Code Review
- ATDD : client 입장에서 테스트
- TDD : developer 입장에서 테스트 (unit test)
- 적절한 논리력
- 원리 탐색 능력
- 제약조건을 고려한 해법
- 단순한 디자인
- 알고리즘과 자료구조 중요