핵심 내용: 선형대수, 확률, 미적분
| 분야 | 주요 개념 | 작은 예시 |
|---|---|---|
| 선형대수 | 행렬 곱(Matrix Multiplication) | 예: 이미지(28×28) × 필터(3×3) → 특징맵 생성 |
| 확률 | 조건부 확률 P(A|B) | 예: 스팸메일 필터에서 "무료" 단어가 있을 때 스팸일 확률 계산 |
| 미적분 | 경사(Gradient) 계산 | 예: 손실 함수 ( L = (y - \hat{y})^2 ) → (\frac{\partial L}{\partial \hat{y}} = -2(y - \hat{y})) |
활용 팁
CNN의 합성곱 연산은 행렬 곱으로 표현 가능
확률 분포를 이해하면 모델 출력의 신뢰도 해석 가능
핵심 내용: 데이터 → 모델 → 학습 → 추론
| 단계 | 설명 | 작은 예시 |
|---|---|---|
| 데이터 준비 | 수집·전처리·증강 | 예: 고양이/강아지 이미지 1,000장 → 20% 회전, 좌우 반전 |
| 모델 설계 | 아키텍처 선택 | 예: 이미지 분류 → CNN, 시계열 예측 → LSTM |
| 학습 | 손실 함수 + 옵티마이저 | 예: loss = CrossEntropyLoss(), optimizer = Adam(lr=0.001) |
| 추론 | 예측 수행 | 예: model.predict("cat.jpg") → "고양이" |
활용 팁
데이터 전처리 품질이 모델 성능의 핵심
학습 시 Validation Set으로 과적합 여부 체크
핵심 내용: 파라미터·메모리·연산량 줄이기
| 기법 | 설명 | 작은 예시 |
|---|---|---|
| Quantization | 32bit → 8bit 변환 | 예: 100MB 모델 → 25MB로 축소 |
| Pruning | 중요도 낮은 가중치 제거 | 예: 1,000개 뉴런 중 200개 제거 |
| Knowledge Distillation | 큰 모델 → 작은 모델로 지식 전이 | 예: BERT(110M 파라미터) → DistilBERT(66M) |
활용 팁
모바일 앱에 모델 넣을 때 Quantization 필수
서버에서는 Mixed Precision Training으로 속도 향상
핵심 내용: 모델 서빙, API, Edge 배포
| 방식 | 설명 | 작은 예시 |
|---|---|---|
| 서버 서빙 | 중앙 서버에서 API 제공 | 예: FastAPI로 /predict 엔드포인트 생성 |
| ONNX 변환 | 범용 포맷으로 변환 | 예: PyTorch 모델 → model.onnx → TensorRT 최적화 |
| Edge 배포 | 디바이스 내 실행 | 예: 스마트폰에서 TensorFlow Lite 모델로 오프라인 번역 |
| GPU 최적화 | CUDA/TensorRT 활용 | 예: NVIDIA GPU에서 추론 속도 3배 향상 |
활용 팁
실시간 서비스 → Edge 배포 + 경량화
대규모 요청 → 서버 서빙 + 로드밸런싱
한 줄 요약