그리고 조금은 반갑던 한국 대학의 논문들을 소개한다.
How Do Large Language Models Acquire Factual Knowledge During Pretraining?
저자가 KAIST, UCL, KT!!
THEANINE: Revisiting Memory Management in Long-term Conversations with Timeline-augmented Response Generation
연대, 서울대 공동 연구
둘 다 LLM관련 연구이다. 내 연구도 올라갈 일이 머지 않았다. 아자아자