Abstract
[RL 의 메모리 관점 한계]
1) past event detail 기억 못함
2) distractor task 가 존재할 경우 single timestep 도 기억못함
[HCAM 특징]
1) chunk 로 기억을 묶은다음 이를 꺼내올 때 chunk를 대상으로 coarse attention을 시행함
2) 1)에서 선택된 chunk에 대해서만 detailed attention을 시행한다
[세가지 측면에서 잘함]
1) long-term recall
2) retention (보유, 유지)
3) reasoning over memory
Introduction
사람의 기억 저장 방식에서 아이디어를 얻어 대략적인 기억에서 세부사항들을 뽑아내는 방식을 RL에 적용하고자 했다
주의) 새로운 내용을 배워야 하는 task가 주어졌을 경우 과거에 배웠던 기억들을 잊어버리면 안된다!
[선행연구들]
1) meta learning 측면 - 다음 task를 수행하려는 경우 이전에 배운 것들을 서서히 잊어버린다
2) LSTM, Transforemer - short task 에서 기억할 수 있다 but, detailed recall 에 취약하다
의외의 점 ) Transformer 기법은 long range 라면 supervised task에서도 유용하지 않다
[원인분석]
1) single timestep 보다 memory chunk 가 짧아서 불러올때 정보를 포함하지 못한다
2) sparsity of attention : 다른 event 들 없이는 specific event detail을 불러오지 못한다는 한계 → 이러한 점은 새로운 task가 주어졌을 경우 대처하는 능력도 떨어뜨린다
[HCAM 의 장점]
1) long-term 측면에서 볼 때 : coarse chunk로 long-term을 커버할 수 있다
2) short-term 측면에서 : transformer 의 short-term sequential and reasoning power를 누릴 수 있다
[HCAM 결과]
1) maintain and recall memory over 5x more distractors (훈련 때에 비교해서 5배 커버가능)
2) 새로운 환경을 만났을 때 기존의 memory를 사용해 near optimal 성능 도출가능
3) robust to hyperparameter
Background
long term memory 를 요하는 RL 을 위한 메모리 구조로는 LSTM 사용
[Transformer]
supervised learning task 마저에서조차 long sequence 문제가 들어오면 transformer는 이를 기억하기 힘들어한다
학술검색 : Long Range Arena : A benchmark for efficient transformers. In International Conference on Learning Representations, 2021 시도
Memory Architecture
실험 3.3 : word-learning task (이전 실험들보다 maintain 하기 더 어렵고 distractor task 가 존재)
transformer based agent가 3D env에서 한번 본 물체를 기억할 수 있다는 사실을 발표한 선행논문 task를 더 어렵게 만듦(중간에 방해하는 task들로)
방식 ) 세가지 고정된 물체들로 이 들 중 하나를 들어올리라는 task를 distractor로 넣는다
⇒ 10개 distractor phase 까지 커버가능했다
[episode 간 knowledge 유지하기]
Discussion
[language task와 같은 supervised setting 과 RL 비교]
[episodic memories] page 9 부분에서 힌트..?
It can be useful to store more general structures—such as a time-sequence of states—as a single “value” in memory
[Transformer memories]
Attention with linear biases enables input length extrapolation
[Memory and adaptation]
Transforming task representations to perform
novel tasks
future directions
Generalization through memorization: Nearest neighbor language models
Therapeutic Approaches: Learn about different therapeutic approaches and their effectiveness in treating mental health issues. Our content covers therapies such as cognitive-behavioral therapy (CBT), psychotherapy, and more. Mind Psychiatrist provides insights into finding the right therapy for your needs. Mind Psychiatrist