역할: 값을 합침
공학적 해석:
역할: 차이를 구함
공학적 해석:
역할: 크기를 조절하거나 상호작용을 만듦
공학적 해석:
역할: 비율, 정규화.
공학적 해석:
역할: 빠른 성장, 양수화.
공학적 해석:
역할: 지수의 반대, 큰 값을 압축.
공학적 해석:
역할: 부호 제거 + 크기 강조.
공학적 해석:
역할: 크기를 원래 단위로 복원.
공학적 해석:
Σ (시그마, 합)
→ 여러 신호/데이터를 더해서 평균, 분산 등 구함.
→ ML에서는 Loss 전체를 데이터셋 평균으로 표현할 때 필수.
Π (파이, 곱)
→ 독립 확률의 결합 (joint probability).
→ 베이지안 모델에서 likelihood 계산.
E[X] (기댓값)
→ 확률변수의 평균적 행동.
→ 공학적으로 "신호의 평균 에너지" 같은 개념.
Var(X), σ² (분산)
→ 불확실성/변동성 측정.
→ 센서 데이터 노이즈, 신호 안정성 평가.
∼ (분포 따름)
→ 확률변수 X가 정규분포를 따른다.
→ 딥러닝 초기화, 베이지안 추론 등에서 필수.
d/dx (미분)
→ 변화율(속도, 기울기).
→ Gradient Descent = 오차를 줄이기 위해 기울기 방향으로 이동.
∂/∂x (편미분)
→ 여러 변수 중 하나만 변화시켰을 때의 변화율.
→ 다변수 함수(딥러닝 Loss 함수)에 반드시 등장.
∫ (적분)
→ 넓이, 누적량.
→ 신호 처리에서 총 에너지, 물리에서 일(work).
→ 연속 확률 분포의 전체 확률=1 을 보장
∇ (그래디언트)
→ 여러 방향의 변화율 모은 벡터.
→ 딥러닝 학습에서 gradient = 핵심.
Δ (델타, 변화량)
→ 값의 차이, step 크기.
→ 뉴턴법, 최적화, 제어이론에서 step update에 사용.
‖x‖ (노름, Norm)
→ 벡터의 길이.
→ 공학에서 거리, 에너지 측정.
→ L1 norm (맨해튼 거리), L2 norm (유클리드 거리)
⟨x, y⟩ (내적, Inner product)
→ 유사도(similarity).
→ 임베딩 모델에서 코사인 유사도와 직접 연결.
⊗ (텐서곱, Kronecker product)
→ 신호 결합, 고차원 표현.
→ 이미지 처리, 양자컴퓨팅, 딥러닝 attention 구조에서 쓰임.
→ 실제 딥러닝에서 Kronecker product 자체는 자주 안 쓰이는데,
notation은 “텐서 연산”을 광범위하게 가리킬 때도 사용
예: CNN, Transformer의 고차원 연산.
A⁻¹ (역행렬)
→ “되돌리는 연산”.
→ 제어공학에서 시스템 역변환, 통계에서 공분산 역행렬.
det(A) (행렬식)
→ 행렬이 뒤집힐 수 있는지(가역성).
→ 물리에서 부피 스케일 변화율.
Tr(A) (트레이스)
→ 대각 원소 합.
→ 선형시스템 안정성, ML 최적화 정규화 항에 등장.
→ 정규화 항” 외에도,
→ ㅠ특이값/고유값 합 = 선형 시스템의 총 variance 라는 해석도 많이 씀.
=> 현실 세계(신호·데이터·물리)를 수학적으로 안정적이고 구조 있게 표현하는 언어라고 볼 수 있음. 공학에서 +, -, ×, ÷, log, exp, square 같은 연산은 신호/확률/오차를 안정적이고 의미 있는 값으로 바꿔주는 변환 도구.
-log P(y)(y_pred - y_true)^2exp(x) / sum(exp(x))| 기호 | 공학적 의미 | ML/DL 활용 예시 |
|---|---|---|
| + (덧셈) | 신호/값 합성 | 뉴런 입력 = 가중합 |
| − (뺄셈) | 차이, 오차 계산 | 예측값 − 정답 = error |
| × (곱셈) | 스케일링, 상호작용 | 가중치 × 입력, 확률 곱 (joint prob.) |
| ÷ (나눗셈) | 비율, 정규화 | Softmax: |
| exp () | 양수화, 급성장/감쇠 | Softmax, 확률 모델 (logit → 확률) |
| log | 스케일 압축, 정보량 | Cross-Entropy Loss: |
| x² (제곱) | 에너지, 부호 제거 | MSE Loss, L2 norm |
| √ (제곱근) | 원래 단위 복원 | 표준편차, RMS 에너지 |
| Σ (시그마) | 합, 누적 | 데이터셋 Loss 평균, 분산 계산 |
| Π (파이) | 곱, 결합 | 베이지안 likelihood: |
| E[X] | 기댓값 (평균) | 손실 함수 기대값, Monte Carlo 추정 |
| Var(X), σ² | 분산 (불확실성) | 모델 불확실성, 분산 감소 학습 |
| ∼ | 분포 따름 | , 가우시안 노이즈 |
| d/dx (미분) | 순간 변화율 | Gradient Descent 학습 |
| ∂/∂x (편미분) | 다변수 변화율 | Backpropagation (연쇄법칙) |
| ∫ (적분) | 누적, 면적 | 확률분포 정규화, 연속 신호 에너지 |
| ∇ (그래디언트) | 변화율 벡터 | Loss의 gradient = 학습 신호 |
| Δ (델타) | 변화량 | Update step: |
| ‖x‖ (노름) | 벡터 크기, 거리 | L1/L2 정규화, 임베딩 거리 |
| ⟨x,y⟩ (내적) | 유사도 | 코사인 유사도, attention score |
| ⊗ (텐서곱) | 고차원 결합 | 이미지 처리, multi-head attention |
| A⁻¹ (역행렬) | 역변환 | 선형시스템 해, 공분산 역행렬 |
| det(A) | 행렬식 = 부피/가역성 | Jacobian 정규화, 변환 안정성 |
| Tr(A) | 대각합 | 정규화 항 (예: Tr(WᵀW)) |
| ≈ (근사) | 실제값 대신 가까운 값 | 수치해석, 근사 알고리즘 |
| ∝ (비례) | 정규화 전 형태 | 확률분포 |
| → (수렴) | 값에 가까워짐 | iterative 알고리즘 수렴 |
| ∞ (무한대) | 극한, 무한 | soft constraint, limit behavior |
| ∪, ∩ (합·교집합) | 집합 조합 | 데이터셋 분할, 사건 조합 |