
사람들이 좋아할 만한 주제로 ICLR Blogpost를 도전해보려 한다. 수업의 이수조건이기 때문도 있지만, Blogpost를 제출하기 위해 논문을 깊이 있게 읽고 새로운 관점을 제시하는 작업이 힘든 만큼 얻어가는 점이 있을 것이기 때문이다.
ICLR Blogpost는 생긴 지 3년 정도 되었다. 최근에 논문이 쏟아져나오다 보니 묻히는 논문과 개념들이 많아 블로그 형태로 쉽게 그 내용을 소개하고자 하는 취지로 만들어진 것이다. 그래서 블로그포스트에 올리는 글의 종류는 다음과 같다.
ICLR Blogposts 라는 링크를 타고 들어가면 더 구체적인 내용을 확인할 수 있다. 잘 쓰인 예시 몇 가지를 함께 소개하겠다.
ICLR Blogpost는 논문보다 더 실용적이고, 형식이 자유롭다. Blogpost는 실제 개발에 도움이 될 만한 디테일을 담고 있는 경우가 꽤 많고, 간단한 코드를 첨부한 경우도 있다. 문체도 논문보다 훨씬 더 가볍고, 이해하기 쉽게 정보를 전달하는 것이 최우선시된다. 그렇다고 내용이 더 쉽다는 것은 아니지만, 초록과 관련 연구, 정량적 평가 등이 거의 없어도 될 정도로 형식의 자유가 있다. 이러한 특성 때문에 그래프를 이용해 시각적으로 정보를 전달하는 방법이 꽤 유효하다. 실제로 몇몇 포스트는 Plotly를 사용하여 Interactive하게 데이터를 시각화하여 보여준다. 달랑 사진만 넣을 수 있는 논문과 비교되는 엄청난 장점이다.
"A Deeper Look at Zero-Cost Proxies for Lightweight NAS"라는 포스트에서 사용한 plotly plot. 실제로 보면 그래프가 실시간으로 업데이트 된다!
"Understanding in-context learning in transformers"의 본문 내용. 수식에 색을 넣어 가독성을 높였다.
주제를 선정하는 것이 가장 까다로운 작업인 것 같다. 나의 관심 분야와 겹치고, Machine Learning Model의 Efficiency와 관련되어 있으며, 많은 사람들에게 좋은 직관을 제시할 수 있는 주제가 무엇이 있을까?
좀 고민을 하다가 생각해 봤다. LLM에서의 Train-time search에 관한 내용은 어떨까? 저번에 세미나에서 들은 적이 있는데, 꽤 흥미로워서 따로 찾아 읽은 적이 있는 논문이다.
Hu et al., "Amortizing intractable inference in large language models", ICLR 2024
Fine-tuning LLMs via diversity-seeking reinforcement learning algorithms for data-efficient adaptation
✅ ICLR에 제출된 최근 논문이고, data-efficient adaptation에 대해 다루고 있기에 주제도 맞다.
✅ LLM fine-tuning과 Chain-of-thought Reasoning을 함께 다루고 있어 실제 Product나 연구에 활용하기에도 적합하다.
✅ LLM뿐 아니라 트랜스포머 기반의 어떤 아키텍처에도 적용 가능하므로, 이를 확장하여 더 큰 개념을 제시할 수 있다.
✅ 무엇보다 트랜스포머 모델에 강화학습의 개념을 적용함으로써 미분가능하지 않은 objective도 학습할 수 있는 가능성을 열어준다.
이제 내가 블로그 글에 강조할 내용은 내용은 다음과 같다.
이 정도면 꽤나 괜찮은 블로그 포스트가 될 것 같다.