Attention is All you Need(2017) 논문을 읽고 내용 요약 및 정리
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(2018)
RoBERTa: A Robustly Optimized BERT Pretraining Approach(2019) 논문을 읽고 내용 요약 및 정리
ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THANGENERATORS(2020) 논문을 읽고 내용 요약 및 정리
XLNet: Generalized Autoregressive Pretraining for Language Understanding(2019) 논문을 읽고 내용 요약 및 정리
DeBERTa: Decoding-enhanced BERT with Disentangled Attention(2020) 논문을 읽고 내용 요약 및 정리
지금까지 스터디한 모델들에 대해서 간단하게 정리, 비교해보고자 한다.
Deep contextualized word representations(2018) 논문을 읽고 내용 요약 및 정리
Language Models are Few-Shot Learners(2020) 논문을 읽고 내용 요약 및 정리
Neural Architectures for Named Entity Recognition(2016) 논문을 읽고 내용 요약 및 정리
Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks(2019) 논문을 읽고 내용 요약 및 정리
BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension(2019) 논문을 읽고 내용 요약 및 정리
ViT(비전 트랜스포머) 논문 읽기
LLaMA와 Alpaca 읽어보기
Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer(2019) 읽어보기
You Look Only Once : Unified, Real-Time Object Detection(2016) Paper Review
YOLO9000 : Better, Faster, Stronger (YOLOv2) 논문 읽기
YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information (2024, arxiv) 읽어보기
A Survey of Transformers (2021) 논문 스터디 - (1)
BLIP : Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation (2022, arXiv) paper review
LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large Language Models (ICCV 2023) 논문 읽기