πŸ“¦ Progressive Neural Compression for Adaptive Image Offloading under Timing Constraints

BardΒ·2025λ…„ 6μ›” 25일

RTCL

λͺ©λ‘ 보기
14/15
post-thumbnail

Motivation

  • IoT λ””λ°”μ΄μŠ€λŠ” μ—£μ§€ μ„œλ²„μ™€ 보톡 μ €μ „λ ₯ 무선 λ„€νŠΈμ›Œν¬λ‘œ μ—°κ²°λ˜μ–΄ μžˆμŠ΅λ‹ˆλ‹€.
  • 그렇기에, μΆ”λ‘  정확도λ₯Ό μœ μ§€ν•˜λ©΄μ„œ 이미지λ₯Ό μ••μΆ•ν•˜μ—¬ μ „μ†‘ν•˜λŠ” 것이 μ€‘μš”ν•©λ‹ˆλ‹€.
  • λ˜ν•œ 이런 μ‹œμŠ€ν…œμ€ μ’…μ’… ν’ˆμ§ˆ 관리 μΉ΄λ©”λΌλ‚˜ κ²½λΉ„ μ‹œμŠ€ν…œκ³Ό 같이 μ‹œκ°„μ  μ œμ•½μ„ μš”κ΅¬ν•©λ‹ˆλ‹€.

Requirements

λ³Έ λ…Όλ¬Έμ—μ„œλŠ” λ„€νŠΈμ›Œν¬κ°€ ν—ˆμš©ν•˜λŠ” 데이터 μ „μ†‘λŸ‰μ„ κ³ λ €ν•˜μ—¬ λΆ„λ₯˜ μ„±λŠ₯을 μ΅œμ ν™”ν•˜λŠ” "open-loop" μ†”λ£¨μ…˜μ— μ§‘μ€‘ν•©λ‹ˆλ‹€.

  • Classification Accuracy: 이미지 μž¬κ΅¬μ„±μ΄ μ•„λ‹Œ λΆ„λ₯˜ 정확도λ₯Ό λͺ©ν‘œλ‘œ ν•΄μ•Όν•©λ‹ˆλ‹€.
  • Encoding Efficiency: 이미지λ₯Ό μ••μΆ•ν•  λ–„, λ¦¬μ†ŒμŠ€ μ œμ•½ 쑰건을 κ³ λ €ν•˜μ—¬ μ΅œμ†Œν•œμ˜ 계산 μ˜€λ²„ν—€λ“œκ°€ λ°œμƒν•΄μ•Ό ν•©λ‹ˆλ‹€.
  • Adaptation to different deadlines and varying bandwidth
    : λŒ€μ—­ν­μ΄ κ°μ†Œν•˜λŠ” μƒν™©μ—μ„œ μš°μ•„ν•œ μ„±λŠ₯ μ €ν•˜λ₯Ό λ‹¬μ„±ν•˜λ©΄μ„œ 마감 κΈ°ν•œκΉŒμ§€ 더 λ§Žμ€ 데이터λ₯Ό μˆ˜μ‹ ν• μˆ˜λ‘ λΆ„λ₯˜ 정확도가 ν–₯μƒλ˜μ–΄μ•Ό ν•©λ‹ˆλ‹€.

Problem Formulation

  • 이미지 μ‹œν€€μŠ€ xi\mathbf{x}_iλŠ” TTμ΄ˆλ§ˆλ‹€ μ°νž™λ‹ˆλ‹€.

On-device Encoding

  • 인코더 fΞΈf_\thetaλŠ” 이미지 xi\mathbf{x}_iλ₯Ό μ••μΆ•ν•˜μ—¬ 벑터 zi\mathbf{z}_i둜 λ³€ν™˜ν•©λ‹ˆλ‹€.
  • 인코딩 지연은 tift^f_i둜 μ •μ˜λ©λ‹ˆλ‹€.

Network Offloading

  • λ‹€μŒ 이미지가 μΈμ½”λ”©λ λ•ŒκΉŒμ§€ 계속 이미지λ₯Ό 보낼 수 μžˆλ‹€λ©΄, λ°λ“œλΌμΈ di=ti+T+tifd_i = t_i + T + t^f_iκΉŒμ§€ zi\mathbf{z}_iλ₯Ό 전솑할 수 μžˆμŠ΅λ‹ˆλ‹€.
  • λ„€νŠΈμ›Œν¬ λŒ€μ—­ν­ b(t)b(t)에 λŒ€ν•΄ λ°λ“œλΌμΈκΉŒμ§€ 보낼 수 μžˆλŠ” μ΄λŸ‰μ€ Si=∫ti+tifti+T+tifb(t)dtS_i = \int_{t_i+t^f_i}^{t_i + T + t^f_i} b(t) dt둜 κ³„μ‚°λ©λ‹ˆλ‹€.
  • λ”°λΌμ„œ, μ‹€μ œ μ „μ†‘λ˜λŠ” 데이터 z~i\tilde{\mathbf{z}}_iλŠ” λ‹€μŒκ³Ό 같이 λ‚˜νƒ€λ‚©λ‹ˆλ‹€.
    z~i={zi,ifΒ size(zi)≀Si,truncate(zi,Si),otherwise.(1)\tilde{\mathbf{z}}_i = \begin{cases} \mathbf{z}_i, & \text{if size}(\mathbf{z}_i) \leq S_i, \\ \text{truncate}(\mathbf{z}_i, S_i), & \text{otherwise.} \end{cases} \tag{1}

Decoding and Classification

  • 디코더 gΟ•g_\phiλŠ” z~i\tilde{\mathbf{z}}_iλ₯Ό μž…λ ₯으둜 λ°›μ•„ yi\mathbf{y}_iλ₯Ό 좜λ ₯ν•©λ‹ˆλ‹€.
  • hhκ°€ λΆ„λ₯˜κΈ°μ΄κ³ , λΆ„λ₯˜ κ²°κ³Όκ³Ό ai=h(yi)=h(gΟ•(z~i))a_i = h(\mathbf{y}_i)= h(g_\phi(\tilde{\mathbf{z}}_i))라면, μΆ”λ‘  정확도 RR은 ground truth gtigt_i에 λŒ€ν•΄ λ‹€μŒκ³Ό 같이 μ •μ˜λ©λ‹ˆλ‹€.
    R(ai,gti)={1,Β ifΒ gti∈{nΒ mostΒ likelyΒ predictions},0,Β ifΒ gtiβˆ‰{nΒ mostΒ likelyΒ predictions}.(2)R(a_i, gt_i) = \begin{cases} 1, & \text{ if } gt_i \in \{ \text{n most likely predictions} \}, \\ 0, & \text{ if } gt_i \notin \{ \text{n most likely predictions} \}. \end{cases} \tag{2}

Objectives

κ°€λ³€ λŒ€μ—­ν­ b(t)b(t)와 TdT_d에 μ˜ν•΄ λΆ€κ³Όλ˜λŠ” λ°λ“œλΌμΈ μ œμ•½ 쑰건 ν•˜μ—μ„œ 정확도λ₯Ό μ΅œλŒ€ν™”ν•˜λŠ” 인코더 및 λ””μ½”λ”μ˜ ν•™μŠ΅ κ°€λŠ₯ν•œ νŒŒλΌλ―Έν„°, ΞΈ\theta 및 Ο•\phiλ₯Ό μ΅œμ ν™”ν•˜λŠ” κ²ƒμž…λ‹ˆλ‹€.

  • μΈμ½”λ”λŠ” λΆ„λ₯˜λ₯Ό μœ„ν•œ μ€‘μš”ν•œ νŠΉμ§•μ„ μΊ‘μ²˜ν•˜κ³  κ°€μž₯ μ€‘μš”ν•œ νŠΉμ§•μ„ λ¨Όμ € μ „μ†‘ν•œ λ‹€μŒ 덜 μ€‘μš”ν•œ νŠΉμ§•μ„ 전솑해야 ν•©λ‹ˆλ‹€.
  • λ””μ½”λ”λŠ” μ„œλ²„μ— λ„μ°©ν•˜λŠ” λΆˆμ™„μ „ν•œ 데이터λ₯Ό μ²˜λ¦¬ν•˜κ³  μˆ˜μ‹ λœ 데이터 양을 κ³ λ €ν•˜μ—¬ μ΅œμƒμ˜ λΆ„λ₯˜ 정확도λ₯Ό 달성해야 ν•©λ‹ˆλ‹€.

Design of PNC

Multi-objective Neural Compression

  • κ³ μ •λœ 크기의 z\mathbf{z}λ₯Ό κ°€μ •ν•  λ•Œ, λͺ©ν‘œλŠ” λ‹€μŒμ„ λ§Œμ‘±ν•˜λŠ” ΞΈ\theta와 Ο•\phiλ₯Ό μ°ΎλŠ” κ²ƒμž…λ‹ˆλ‹€.
ΞΈ,Ο•=arg⁑min⁑θ,Ο•L(ΞΈ,Ο•)(3)\theta, \phi = \arg \min_{\theta, \phi} \mathcal{L}(\theta, \phi) \tag{3}
  • μ—¬κΈ°μ—μ„œ L(ΞΈ,Ο•)\mathcal{L}(\theta, \phi)은 이미지 μž¬κ΅¬μ„±μ— λŒ€ν•œ μ†μ‹€ν•¨μˆ˜λ₯Ό μ˜λ―Έν•©λ‹ˆλ‹€.
  • κ·ΈλŸ¬λ‚˜, μ΄λŠ” κ³ μ •λœ 크기의 z\mathbf{z}λ₯Ό κ°€μ •ν–ˆμ„ λ•Œμ΄λ―€λ‘œ, μš°λ¦¬λŠ” λ‹€λ₯Έ λͺ©μ ν•¨μˆ˜λ₯Ό μ‚¬μš©ν•΄μ•Ό ν•©λ‹ˆλ‹€.
  • λ§Œμ•½ K≀MK \le M개 μ±„λ„λ§Œ μˆ˜μ‹ ν–ˆλ‹€λ©΄, λ‹€μŒκ³Ό 같은 λͺ©ν‘œλ₯Ό μ„ΈμšΈ 수 μžˆμŠ΅λ‹ˆλ‹€.
    L(ΞΈ,Ο•,K)=l(x,gΟ•(Concat[z[1:K];0]))(4)\mathcal{L}(\theta, \phi, K) = l(\mathbf{x}, g_\phi(\text{Concat}[\mathbf{z}_{[1:K]}; \mathbf{0}])) \tag{4}
  • μ—¬κΈ°μ„œ κ°€λŠ₯ν•œ KKλ₯Ό λͺ¨λ‘ κ³ λ €ν•œλ‹€λ©΄ λ‹€μŒκ³Ό 같은 multi-objective μ΅œμ ν™” 문제λ₯Ό μ •μ˜ν•  수 μžˆμŠ΅λ‹ˆλ‹€.
    min⁑θ,Ο•Ex∼X[L(ΞΈ,Ο•;1),L(ΞΈ,Ο•;2),…,L(ΞΈ,Ο•;M)](5)\min_{\theta, \phi} \mathbb{E}_{x \sim X} [\mathcal{L}(\theta, \phi; 1), \mathcal{L}(\theta, \phi; 2), \ldots, \mathcal{L}(\theta, \phi; M)] \tag{5}
  • κ·ΈλŸ¬λ‚˜ 여기에 closed-form ν•΄λŠ” μ—†μŠ΅λ‹ˆλ‹€.
  • λ”°λΌμ„œ λ‹€μ–‘ν•œ bottleneck 차원 κ°„μ˜ trade-offλ₯Ό κ³ λ €ν•˜μ—¬ κ°€λŠ₯ν•œ ν•œ Pareto frontier에 κ°€κΉŒμš΄ ν•΄λ₯Ό μ°Ύμ•„μ•Ό ν•©λ‹ˆλ‹€.

  • μ΄λŠ” 졜근 μ—°κ΅¬μ—μ„œ μ œμ•ˆλœ "stochastic taildrop regularization"을 μ‚¬μš©ν•˜μ—¬ ν•΄κ²°ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

Two-stage Offline Training

  1. Unsupervised pretraining for image reconstruction

    L(ΞΈ,Ο•,K)=βˆ₯xβˆ’gΟ•(Concat[fΞΈ(x)1:K;0])βˆ₯2(6)\mathcal{L}(\theta, \phi, K) = \| x - g_\phi \left( \text{Concat} \left[ f_\theta(x)_{1:K} ; 0 \right] \right) \|^2 \tag{6}

    이 μžκΈ°μ§€λ„ ν•™μŠ΅λ‹¨κ³„λŠ” AE νŒŒλΌλ―Έν„° ΞΈ,Ο•\theta, \phiκ°€ 잠재적인 λŒ€μƒ λ¨Έμ‹  λŸ¬λ‹(ML) μ„œλΉ„μŠ€μ— 적응할 수 μžˆλŠ” μΌλ°˜ν™” κ°€λŠ₯ν•œ μƒνƒœλ‘œ μ€€λΉ„ν•©λ‹ˆλ‹€.

  2. Knowledge Distillation for Inference

    L(ΞΈ,Ο•,K)=CE(h(x),h(gΟ•(Concat[fΞΈ(x)[1:K];0])))(7)\mathcal{L}(\theta, \phi, K) = \text{CE}(h(\mathbf{x}), h(g_\phi(\text{Concat}[f_\theta(\mathbf{x})_{[1:K]}; 0]))) \tag{7}

    지식 증λ₯˜ λ™μ•ˆ, μ„œλΉ„μŠ€ λͺ¨λΈ h(x)h(x)λŠ” νŒŒλΌλ―Έν„°κ°€ κ³ μ •λœ λΈ”λž™ λ°•μŠ€λ‘œ μ·¨κΈ‰λ˜λ©°, AE νŒŒλΌλ―Έν„°μΈ θθ와 Ο•\phi만 μ—…λ°μ΄νŠΈλ©λ‹ˆλ‹€.

Quantization and Huffman Coding

좔가적인 z\mathbf{z} 압좕을 μœ„ν•΄, PNCλŠ” λ‹€μŒκ³Ό 같은 두 κ°€μ§€ 방법을 μ‚¬μš©ν•©λ‹ˆλ‹€.

  1. Quantization
    1. Model Quantization: PNCλŠ” λͺ¨λΈ νŒŒλΌλ―Έν„°λ₯Ό μ–‘μžν™”ν•˜μ—¬ λͺ¨λΈ 크기λ₯Ό μ€„μž…λ‹ˆλ‹€.
    2. Feature Quantization: PNCλŠ” λ°μ΄ν„°μ˜ 0~255 값을 64개의 κ°’μœΌλ‘œ μ–‘μžν™”ν•©λ‹ˆλ‹€. μ΄λŠ” 데이터 크기λ₯Ό 3/4둜 μ€„μž…λ‹ˆλ‹€.

μ—¬κΈ°κΉŒμ§€ μ§„ν–‰ν•˜λ©΄ 224x224의 이미지가 μ•½ 0.75KB둜 μ••μΆ•λ˜λ©°, ν—ˆν”„λ§Œ 코딩을 톡해 더 μž‘μ€ 크기둜 μ••μΆ•ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

  1. Huffman Coding
    • PNCλŠ” λŸ°νƒ€μž„μ— μ–‘μžν™”λœ 데이터λ₯Ό μΆ”κ°€λ‘œ μ••μΆ•ν•˜κΈ° μœ„ν•΄ ν—ˆν”„λ§Œ 코딩을 μ‚¬μš©ν•©λ‹ˆλ‹€.
    • μ΄λŠ” λ°μ΄ν„°μ˜ λΉˆλ„μ— 따라 κ°€λ³€ 길이 μ½”λ“œλ₯Ό ν• λ‹Ήν•˜μ—¬ μ••μΆ• νš¨μœ¨μ„ λ†’μž…λ‹ˆλ‹€.

Progressive Property of PNC

Image Offloading Architecture

Evaluation

profile
돈 λ˜λŠ” 건 λ‹€ κ³΅λΆ€ν•©λ‹ˆλ‹€.

0개의 λŒ“κΈ€