Our results strongly suggest that larger models will continue to perform better, and will also be much more sample efficient
Transformer 구조의 LM 에서 주어진 compute budget (FLOPs 로 표현) 에 대한 optimal model size 와 tokens 간의 관계에 대한 실험 연구