Contents Abstract Introduction Related work Formulation Implementation Results Limitations and Discussion Appendix 0. Abstract Image-to-Image transl
pre-trained language representation을 downstream task에 적용하는 방식은 'feature based'와 'fine-tuning'방식이 있다. ELMo와 같은 feature based 방식에선 task-specific archite
https://wikidocs.net/22592 https://supkoon.tistory.com/25
https://herbwood.tistory.com/8 https://herbwood.tistory.com/5
0. Abstract 이 연구에서 우리는 multimodal pretraining을 위한 통합된 패러다임을 추구한다. 우리는 OFA(One-for-All)라는 unified multimodal pretrained model을 제시한다. OFA는 단순한 sequence-