
✅ 요약 : 기존 MLP 기반 예측은 point-wise mapping 한계(정보 병목)로 성능이 제한됨.
본 논문은 주파수 영역 MLP를 설계해 이를 극복하고, FreTS라는 간단한 아키텍처(채널/시간 두 학습자)로 구현.
13개 벤치마크(단·장기)에서 SOTA/SoTA 수준 성능을 보이며, 파라미터/학습시간에서도 이점을 확인.
주파수 도메인 기반 예측: SFM(LSTM 상태를 DFT로 분해), StemGNN(GFT/DFT), Autoformer(FFT 기반 auto-correlation), FEDformer(DFT 기반 주파수 강화 주의), CoST/FiLM(주파수 상호작용/노이즈 제거) 등. 본 연구는 원 아키텍처를 개선하는 수준을 넘어, 채널·시간 의존성을 모두 주파수에서 학습하는 새로운 구조를 제안.
MLP 기반 예측: N-BEATS, LightTS, N-HiTS, LTSF-Linear 등 단순 구조의 효율성을 입증. 본 연구의 FreMLP 설계에 영감을 제공

Dimension Extension: 입력 𝑋_𝑡에 학습 가능한 임베딩 를 곱해 획득.
Domain Conversion/Inversion: DFT/IDFT로 시간↔주파수 도메인 왕복(실/허수 분리 표기).
두 주파수 학습자

FreMLP = 주파수-영역 MLP: 복소수 가중치/바이어스 로 실/허수 별 연산 후 합성

데이터셋: 단기(Solar, Wiki, Traffic, Electricity, ECG, METR-LA, COVID-19), 장기(Weather, Exchange, Traffic, Electricity, ETT). 전처리/분할 비율(7:2:1, COVID-19는 6:2:2).
비교대상: 단기—VAR, LSTNet, TCN, GraphWaveNet, StemGNN, MTGNN, AGCRN 등(+사전 그래프 요구 기법). 장기—Informer/Autoformer/FEDformer/Reformer/LTSF-Linear/PatchTST.
평가지표/세팅: 손실 MSE, 보고 지표 MAE/RMSE, PyTorch 구현/단일 RTX3080 실험.
주요 결과
종합 성능: 표 1·2 결합 결론—FreTS는 단·장기 모두에서 경쟁력/우수성 확인.

장기·다양한 L에서 견고성: Exchange에서 L∈{96,192,336}, τ∈{96,192,336,720} 전 설정에서 FreTS가 모두 우세. (표 10)

효율성:
변수 수 𝑁 증가 시 파라미터 수 N 무관, AGCRN 대비 파라미터 30%↓, 학습시간 20%↓.
τ 증가 시 Transformer류 대비 파라미터 ≥3배↓, 학습시간 Informer 3배/Autoformer 5배/FEDformer 10배 이상 빠름. (그림 4)

학습자 분리 효과(표 3):
단기: 채널 학습자(FreCL)가 더 중요.
장기: 시간 학습자(FreTL)가 더 효과적이며, 일부 장기 설정에서는 채널 학습자만 쓰면 과적합으로 성능 저하. (E.1)

FreMLP 대체 실험(표 4):
DLinear/NLinear의 MLP를 FreMLP로 교체하면 모든 길이에서 개선(Exchange/Weather에서 MAE·RMSE 평균 개선 수치 제시).

본 연구는 주파수-영역 MLP 재설계와 FreTS 아키텍처로 시계열 예측에서 성능·효율을 동시에 달성. 글로벌 관점/에너지 압축 특성을 이론적으로 보이고, 다양한 벤치마크에서 우수성을 검증. 시계열에서 간단한 MLP의 잠재력을 재조명했다.