post-thumbnail

Not Only Rewards But Also Constraints: Applications on Legged Robot Locomotion

Paper: https://arxiv.org/abs/2308.12517

4일 전
·
0개의 댓글
·
post-thumbnail

AMP: Adversarial Motion Priors for Stylized Physics-Based Character Control

Paper: https://arxiv.org/abs/2104.02180

2024년 10월 31일
·
0개의 댓글
·
post-thumbnail

MoAI: Mixture of All Intelligence for Large Language and Vision Models

Paper : https://arxiv.org/abs/2403.07508

2024년 8월 4일
·
0개의 댓글
·
post-thumbnail

Mixture of Attention Heads: Selecting Attention Heads Per Token

Paper: https://arxiv.org/abs/2210.05144

2024년 8월 2일
·
0개의 댓글
·
post-thumbnail

FedBABU: Towards Enhanced Representation for Federated Image Classification

Paper : https://arxiv.org/abs/2106.06042

2024년 7월 24일
·
0개의 댓글
·
post-thumbnail

Federated Dynamic Sparse Training: Computing Less, Communicating Less, Yet Learning Better

Paper : https://arxiv.org/abs/2112.09824

2024년 7월 21일
·
0개의 댓글
·
post-thumbnail

Sparse Model Soups: A recipe for Improved Pruning via Model Averaging

Paper : https://arxiv.org/abs/2306.16788

2024년 7월 19일
·
0개의 댓글
·
post-thumbnail

Complement Sparsification: Low-Overhead Model Pruning for Federated Learning

Paper : https://arxiv.org/abs/2303.06237

2024년 7월 18일
·
0개의 댓글
·
post-thumbnail

Audio Deepfake Detection : A Survey

Paper : https://arxiv.org/abs/2308.14970

2024년 6월 8일
·
0개의 댓글
·
post-thumbnail

[Capstone #10] Encoding Speaker-Specific Latent Speech Feature for Speech Synthesis

Paper : https://arxiv.org/abs/2311.11745

2024년 5월 18일
·
0개의 댓글
·
post-thumbnail

DLT: Conditioned layout generation with Joint Discrete-Continuous Diffusion Layout Transformer

Paper : https://arxiv.org/abs/2303.03755

2024년 5월 5일
·
0개의 댓글
·
post-thumbnail

[UROP #14] Exploring Gender Bias in Pre-Trained Transformer-based Language Models Using Movement Pruning

Paper : https://arxiv.org/abs/2207.02463

2024년 5월 3일
·
0개의 댓글
·
post-thumbnail

[Capstone #8] SK TECH SUMMIT 2023: VITS2

Youtube : https://www.youtube.com/watch?v=Abov0q9T4jU:

2024년 4월 26일
·
0개의 댓글
·
post-thumbnail

[UROP #13] Block Pruning For Faster Transformers

Paper : https://arxiv.org/abs/2109.04838

2024년 4월 12일
·
0개의 댓글
·
post-thumbnail

[Clean Code #8] 10. 클래스

추상화 단계가 순차적으로 내려간다. 그래서 프로그램은 신문 기사처럼 읽힌다.

2024년 4월 5일
·
0개의 댓글
·
post-thumbnail

[Capstone #5] Matcha-TTS: A fast TTS architecture with conditional flow matching

Paper : https://arxiv.org/abs/2309.03199

2024년 3월 22일
·
0개의 댓글
·
post-thumbnail

[Capstone #4] OverFlow: Putting flows on top of neural transducers for better TTS

Paper : https://arxiv.org/abs/2211.06892

2024년 3월 15일
·
0개의 댓글
·