deeplearning

1.[Deep Learning] Gradient Descent: 왜 딥러닝은 '학습' 방식부터 다를까?

post-thumbnail

2.[Deep Learning] 딥러닝의 심장, Gradient Descent: 왜 모든 길은 경사 하강법으로 통하는가?

post-thumbnail

3.[Deep Learning] 딥러닝의 기하학: 비볼록(Non-convex) 지형의 함정을 돌파하는 전략

post-thumbnail

4.[Deep Learning] Multi-layer Perceptron의 구조와 수학적 관계

post-thumbnail

5.[Deep Learning] 왜 활성화 함수는 반드시 '비선형(Non-linear)'이어야 하는가?

post-thumbnail

6.[Deep Learning] 딥러닝의 침묵: 기울기 소실(Gradient Vanishing)이란 무엇인가?

post-thumbnail

7.[Deep Learning] 기울기 소실 (Gradient Vanishing)극복 원리

post-thumbnail

8.[Deep Learning] 기울기를 지키기 위한 사투: ResNet의 설계 철학

post-thumbnail

9.[Deep Learning] 딥러닝 옵티마이저: 기초부터 최신 AdamW까지

post-thumbnail

10.[Deep Learning] 딥러닝 학습의 3대 변수: 소실, 사망, 그리고 감쇠

post-thumbnail

11.[Deep Learning] 데이터셋 분할의 정석: Train, Validation, Test를 나누는 진짜 이유

post-thumbnail

12.[Deep Learning] 순서가 생명인 데이터셋 분할의 정석: 시계열 & 텍스트

post-thumbnail

13.[Deep Learning] 딥러닝의 첫 단추: 가중치 초기화(Weight Initialization) 완벽 가이드

post-thumbnail

14.[Deep Learning] 모델의 성적을 결정하는 설계도: 하이퍼파라미터(Hyperparameter) 튜닝

post-thumbnail

15.[Deep Learning] 데이터의 흐름을 지배하는 법: 4가지 정규화(Normalization) 완전 정복

post-thumbnail

16.[Deep Learning] 모델의 일반화 성능을 극대화하는 Regularization (규제)

post-thumbnail

17.[Computer Vision] 딥러닝 시각화 (Feature Visualization vs Activation Map vs Grad-CAM)

post-thumbnail

18. [Deep Learning] Partial Gradient Descent (편미분): 개별적 움직임이 만드는 전체의 최적화

post-thumbnail

19.[Deep Learning] 학습의 고속도로를 깔다: 배치 정규화(Batch Normalization) 완벽 가이드

post-thumbnail