profile
감자 그리고 NLP
post-thumbnail

how to use PORORO

project_3

2024년 11월 3일
·
0개의 댓글
·
post-thumbnail

[project#2] ColBERT

nlp project2

2024년 10월 25일
·
0개의 댓글
·
post-thumbnail

049. 오랜만에 돌아온 회고

네부캠 49일차

2024년 10월 24일
·
0개의 댓글
·
post-thumbnail

045. 드디어, 금요일.

네부캠 45일차

2024년 10월 18일
·
0개의 댓글
·
post-thumbnail

044. 드디어 온라인으로만 만나던 팀원들을...[더보기]

네부캐 44일차

2024년 10월 18일
·
0개의 댓글
·
post-thumbnail

043. 앗 밀렸다

네부캠 43일차

2024년 10월 18일
·
0개의 댓글
·
post-thumbnail

042. 나는 심심하면 논문을 읽어.

네부캠 42일차

2024년 10월 16일
·
0개의 댓글
·
post-thumbnail

041. 나는 코드 고치는 걸 싫어해.

네부캠 41일차

2024년 10월 15일
·
0개의 댓글
·
post-thumbnail

039. 대한민국에서 노벨 문학상 수상자가 나왔다!

네부캠 39일차

2024년 10월 10일
·
0개의 댓글
·
post-thumbnail

[project#2] Gradient Accumulation Step이란?

nlp_project2

2024년 10월 10일
·
0개의 댓글
·

[논문] RoBERTa: A Robustly Optimized BERT Pretraining Approach

[RoBERTa: A Robustly Optimized BERT Pretraining Approach ](https://arxiv.org/abs/1907.11692) RoBERTa는 BERT를 발전시킨 모델이다. Introduction BERT가 상당히 덜 훈련되었음을 발견하고, BERT 모델 훈련을 개선하기 위한 방법을 제안한다. 그리고 이를 RoBER...

2024년 10월 10일
·
0개의 댓글
·
post-thumbnail

[project#2] wandb 사용방법

nlp_project2

2024년 10월 10일
·
0개의 댓글
·