By exploring NUMA-level parallelism and utilizing aggregate bandwidth, NUMA interleaving을 tiered memory system에서 사용하면 near and far memory access 사이에서 different access latency 발생
-> memory intensive workload에서 performance degradation
- NUMA interleaving이 tiered memory system에서의 영향을 조사해보니 high bandwidth를 요구하는 App에서는 필수적이지만 아닌 경우에서는 부정적이었다.
- far memory access를 통해 performance degradation 완화를 목표
far , near memory 간의 last-level cache를 분할하는 T-CAT이라는 dynamic cache management를 제안
T-CAT은 dynamic cache management를 통해 NUMA interleaving 의 이점을 유지하면서 far memory access로 인한 performance degradation 완화