post-thumbnail

DINOv3

DINOv3 논문에 대하여...

2026년 1월 26일
·
0개의 댓글
·
post-thumbnail

Mixture-of-Recursions: Learning Dynamic Recursive Depths for Adaptive Token-Level Computation

Mixture-of-Recursions: Learning Dynamic Recursive Depths for Adaptive Token-Level Computation 논문에 대하여...

2026년 1월 22일
·
0개의 댓글
·
post-thumbnail

Relaxed Recursive Transformers: Effective Parameter Sharing with Layer-wise LoRA

Relaxed Recursive Transformers: Effective Parameter Sharing with Layer-wise LoRA Relaxed RT에 대한 내용 Abstract Contribution 기존 weight unshared model로

2026년 1월 8일
·
0개의 댓글
·
post-thumbnail

Early-Exit Deep Neural Network - A Comprehensive Survey

Early-Exit Deep Neural Network - A Comprehensive Survey 논문에 대하여...

2025년 12월 23일
·
0개의 댓글
·

HRM, TRM experiments

HRM, TRM settings

2025년 11월 19일
·
0개의 댓글
·
post-thumbnail

Less is More: Recursive Reasoning with Tiny Networks

TRM에 대한 내용TRM은 HRM보다 훨씬 더 단순한 재귀적 추론 접근 방식으로, 단 2개의 레이어만 가진 하나의 초소형 네트워크를 사용하면서도 HRM보다 훨씬 더 높은 일반화 성능을 달성.HRM: 27MTRM: 7M1) recursive hierarchical rea

2025년 11월 13일
·
0개의 댓글
·
post-thumbnail

Hierarchical Reasoning Model

Hierarchical Reasoning Model 논문에 대하여...

2025년 11월 10일
·
0개의 댓글
·
post-thumbnail

RepQ-ViT: Scale Reparameterization for Post-Training Quantization of Vision Transformers

RepQ-ViT: Scale Reparameterization for Post-Training Quantization of Vision Transformers 논문에 대하여...

2025년 10월 29일
·
0개의 댓글
·
post-thumbnail

APQ-ViT: Towards Accurate Post-Training Quantization for Vision Transformer

APQ-ViT: Towards Accurate Post-Training Quantization for Vision Transformer 논문에 대하여...

2025년 10월 28일
·
0개의 댓글
·
post-thumbnail

FQ-ViT: Post-Training Quantization for Fully Quantized Vision Transformer

FQ-ViT: Post-Training Quantization for Fully Quantized Vision Transformer 논문에 대하여...

2025년 10월 28일
·
0개의 댓글
·
post-thumbnail

PTQ4ViT

Ptq4vit: Post-training quantization for vision transformers with twin uniform quantization 논문에 관하여...

2025년 10월 27일
·
0개의 댓글
·
post-thumbnail

Post-Training Quantization for Vision Transformer

Post-Training Quantization for Vision Transformer 논문에 관하여...

2025년 10월 22일
·
0개의 댓글
·
post-thumbnail

PACT: PARAMETERIZED CLIPPING ACTIVATION FOR QUANTIZED NEURAL NETWORKS

PACT에 관하여...

2025년 10월 21일
·
0개의 댓글
·
post-thumbnail

MPQ via Learned Layer-wise Importance

Mixed-Precision Neural Network Quantization via Learned Layer-wise Importance에 대하여...

2025년 10월 17일
·
0개의 댓글
·
post-thumbnail

Explaining NonLinear Classification Decisions with Deep Taylor Decomposition

Explaining NonLinear Classification Decisions with Deep Taylor Decomposition 논문에 대하여...

2025년 7월 1일
·
0개의 댓글
·
post-thumbnail

Mix-QViT: Mixed-Precision Vision Transformer Quantization Driven by Layer Importance and Quantization Sensitivity

Mix-QViT: Mixed-Precision Vision Transformer Quantization Driven by Layer Importance and Quantization Sensitivity 논문에 대하여...

2025년 6월 19일
·
0개의 댓글
·
post-thumbnail

SpecEE: Accelerating Large Language Model Inference with Speculative Early Exiting

SpecEE: Accelerating Large Language Model Inference with Speculative Early Exiting 논문에 대하여...

2025년 5월 11일
·
0개의 댓글
·
post-thumbnail

BinaryViT: Pushing Binary Vision Transformers Towards Convolutional Models

BinaryViT: Pushing Binary Vision Transformers Towards Convolutional Models 논문에 대하여...

2025년 4월 3일
·
0개의 댓글
·
post-thumbnail

A Survey of Quantization Methods for Efficient Neural Network Inference

A Survey of Quantization Methods for Efficient Neural Network Inference 논문에 대하여...

2025년 1월 2일
·
1개의 댓글
·
post-thumbnail

SmoothQuant: Accurate and Efficient Post-Training Quantization for Large Language Models

SmoothQuant: Accurate and Efficient Post-Training Quantization for Large Language Models 논문에 대하여...

2024년 12월 26일
·
0개의 댓글
·