4์ฃผ์ฐจ ๊ธ์์ผ
- ์บ๊ธ ๊ฐ์ฒด๋ช ๋ถ์ ์ฑ๋ฆฐ์ง
Transformer ๊ตฌ์กฐ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ ELECTRA ๋ชจ๋ธ์ Pre-training Language Model ์ค ํ๋๋ก, ์์ฐ์ด ์ฒ๋ฆฌ์ ๋ง์ด ์ฌ์ฉ๋๊ณ ์๋ค. ELECTRA์ ํ๊ตญ์ด ๋ฒ์ ์ธ KoELECTRA (์ ์์ ๋ฐ์ฅ์ ๋์ ๋ฆฌํฌ์งํ ๋ฆฌ) ๋ฅผ ์ฌ์ฉํด์ ์บ๊ธ ๊ฐ์ฒด๋ช ๋ถ์ ์ฑ๋ฆฐ์ง ๊ณผ์ ๋ฅผ ์ํํ๋ค.
์ ๊ณต๋ ์ฝ๋๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ๋ง๋ ๋ชจ๋ธ์ public score๋ 0.90074๊ฐ ๋์๋๋ฐ, ์ฃผ๋ง์ ๋ฐ์ดํฐ ์ ์ฒ๋ฆฌ๋ fine-tuning์ ๋ ํด๋ณด๊ณ ์๋์ ๋ณ๋ ์ฌํญ์ ๊ธฐ๋กํ ์์ ์ด๋ค.