๐ย ์๋ฌธ ๋งํฌ
https://jacobgil.github.io/deeplearning/vision-transformer-explainability
2020๋ ์ ๋ฑ์ฅํ ์ฌ๋ฌ ์ฐ๊ตฌ๋ค์ Transformer๋ฅผ ์ปดํจํฐ ๋น์ (CV) ๋ถ์ผ์ ๋ณธ๊ฒฉ์ ์ผ๋ก ๋์ ํ๊ธฐ ์์ํ์์ต๋๋ค.
๊ทธ์ค์์๋ < An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale >์ Vision Transformer(ViT)์ < Training data-efficient image transformers & distillation through attention >์ Data-efficient image Transformer(DeiT)๊ฐ ๊ฐ์ฅ ๋์ ๋๋ ์ฃผ์ํ ์ฐ๊ตฌ๋ผ๊ณ ํ ์ ์์ต๋๋ค.
์ดํ์๋ Vision Task์ Transformer๋ฅผ ์ฌ์ฉํ๋ ์ฐ๊ตฌ๋ค์ด ๋ง์ด ๋ฑ์ฅํ ๊ฒ์ด๋ผ๊ณ ์์๋๋๋ฐ, ๊ทธ๋ ๋ค๋ฉด ์ฐ๋ฆฌ๋ ๋ค์๊ณผ ๊ฐ์ ์๋ฌธ์ ์ ๊ฐ์ง ์๋ ์์ต๋๋ค.
โ
1. ViT์ ๋ด๋ถ์์๋ ๋ฌด์์ด ์ผ์ด๋๊ณ ์์๊น์?
2. ViT๋ ์ด๋ป๊ฒ ์๋ํ๋ ๊ฑธ๊น์?
3. ์ฐ๋ฆฌ๊ฐ ๊ทธ ๋ด๋ถ๋ฅผ ๋ค์ฌ๋ค๋ณด๊ณ ๊ฐ ๊ตฌ์ฑ ์์๋ฅผ ์ดํดํ ์ ์์๊น์?
์ด๋ฌํ ์ง๋ฌธ๋ค์ ๊ณตํต์ ์ผ๋ก ๋ธ๋๋ฐ์คํ์ธ ๋ฅ๋ฌ๋ ๋ชจ๋ธ๋ค์ โ์ค๋ช ๊ฐ๋ฅ์ฑ(Explainability)โ์ ์๊ตฌํ๊ณ ์์ต๋๋ค. โ์ค๋ช ๊ฐ๋ฅ์ฑ(Explainability)โ์ ๋ค์ ํฌ๊ด์ ์ด๊ณ ์ฌ๋๋ง๋ค ๋ค๋ฅด๊ฒ ํด์ํ ์ ์๋ ๊ฐ๋ ์ด์ง๋ง, ์ฌ๊ธฐ์๋ ์ค๋ช ๊ฐ๋ฅ์ฑ์ ๋ค์๊ณผ ๊ฐ์ด ์ ์ํฉ๋๋ค:
๐ก [ for the developers ]
1. Whatโs going on inside when we run the Transformer on this image? โ Activation Visualization
์ค๊ฐ ํ์ฑํ ๊ณ์ธต์ ์ดํด๋ณผ ์ ์๋ ๊ฒ์ด ์ด์ ํด๋นํฉ๋๋ค. ์ปดํจํฐ ๋น์ ์์๋ ๋ณดํต ์ด๋ฌํ ํ์ฑํ ๊ณ์ธต์ ์ด๋ฏธ์ง๋ก ํํํฉ๋๋ค. ์๋ก ๋ค๋ฅธ ์ฑ๋ ํ์ฑํ๋ฅผ 2D ์ด๋ฏธ์ง๋ก ์๊ฐํํ ์ ์์ด ์ด๋ ์ ๋ ํด์์ด ๊ฐ๋ฅํฉ๋๋ค.
2. What did it learn? โ Activation Maximization
๋ชจ๋ธ์ด ์ด๋ค ์ ํ์ ํจํด์ ํ์ตํ๋์ง๋ฅผ ์กฐ์ฌํ ์ ์๋ ๊ฒ์ ๋๋ค. ๋ณดํต โ์ด ํ์ฑํ์ ๋ํ ๋ฐ์์ ์ต๋ํํ๋ ์ ๋ ฅ ์ด๋ฏธ์ง๋ ๋ฌด์์ธ๊ฐ?โ๋ผ๋ ์ง๋ฌธ์ ํํ๋ก ์ด๋ฃจ์ด์ง๋ฉฐ, โActivation Maximization(ํ์ฑํ ์ต๋ํ)โ ๊ธฐ๋ฒ์ ๋ณํ์ ์ฌ์ฉํ ์ ์์ต๋๋ค.
- Activation Maximization
- CNN ์์ ์ด๋ ํ๊ฒ ์ถ๋ ฅ๊ฐ์ ํ๋ ๊ณ ์ ํด ๋๊ณ , ์ด๋ฅผ ์ต๋๋ก ํ์ฑํํ๋ ์ ๋ ฅ ์ด๋ฏธ์ง๋ฅผ ์ฐพ๊ฑฐ๋ ์์ฑํ๋ ๋ฐฉ๋ฒ
๐ก [ for both the developer and the user ]
1. What did it see in this image? โ Pixel Attribution
- โ์ด ์ด๋ฏธ์ง์์ ๋คํธ์ํฌ์ ์์ธก์ ์ํฅ์ ๋ฏธ์น ๋ถ๋ถ์ ์ด๋์ธ๊ฐ?โ๋ผ๋ ์ง๋ฌธ์ ๋ตํ ์ ์๋ ๊ฒ, ์ฆ ํฝ์ ๊ธฐ์ฌ๋(Pixel Attribution)๋ผ๊ณ ๋ถ๋ฆฝ๋๋ค.
์ด์ ๊ฐ์ ์ค๋ช ๊ฐ๋ฅ์ฑ์ด ViT์๋ ํ์ํ๊ธฐ์, ์ด ๊ธ์์ ์ด๋ฅผ ๊ตฌํํด๋ณด๋ ๊ณผ์ ์ ๊ณต์ ํฉ๋๋ค. (์ด ๊ณผ์ ์ ๋ํ ์ ์ฒด ์ฝ๋๋ ๋ค์์์ ํ์ธํ ์ ์์ต๋๋ค: https://github.com/jacobgil/vit-explain )
๊ธฐ๋ณธ์ ์ธ setting์ผ๋ก, ๋จผ์ ์ฌ์ฉํ ๋ชจ๋ธ์ Facebook์์ ์๋กญ๊ฒ ๊ณต๊ฐํ โDeit Tinyโ ๋ชจ๋ธ์
๋๋ค.
model = torch.hub.load('facebookresearch/deit:main', 'deit_tiny_patch16_224', pretrained=True)
๊ทธ๋ฆฌ๊ณ 224x224 ์ ๋ ฅ ์ด๋ฏธ์ง๋ฅผ ๊ธฐ๋ณธ์ผ๋ก ํ์ฌ ์งํํ๊ฒ ์ต๋๋ค.
Vision Transformer๋ ๋ช ๊ฐ์ ์ธ์ฝ๋ฉ ๋ธ๋ก์ผ๋ก ๊ตฌ์ฑ๋ฉ๋๋ค. ๊ฐ ๋ธ๋ก์๋ ๋ค์์ด ํฌํจ๋์ด ์์ต๋๋ค.
โ Attention Head์ MLP ๋ชจ๋์ ์์ฐจ ์ฐ๊ฒฐ(residual connection)์ด ์ ์ฉ๋๋ฉฐ, ์ด๋ฅผ ํตํด ์ด๋ค์ด ์ด๋ป๊ฒ ์๋ํ๋์ง ๋ณผ ๊ฒ์ ๋๋ค.
Vision Transformer์์๋ ์ด๋ฏธ์ง ๋ฐ์ดํฐ๋ฅผ ์
๋ ฅ์ผ๋ก ๋ฐ์, ์ด๋ฅผ ํ ํฐํํ์ฌ ๊ฐ ํจ์น์ ๊ด๊ณ๋ฅผ ์ดํ
์
๋ฉ์ปค๋์ฆ์ ํตํด ํ์ตํฉ๋๋ค. ํนํ, ๋ชจ๋ธ ๋ด๋ถ์ ๊ฐ Attention Head์์๋ ์ค์ํ ์์์ธ Q(Query), K(Key), V(Value)๊ฐ ํจ๊ป ์๋ํ์ฌ ์ด๋ฏธ์ง์ ํจ์น๋ค ๊ฐ์ ๊ด๊ณ๋ฅผ ํ์
ํฉ๋๋ค. ์ฌ๊ธฐ์๋ Deit Tiny ๋ชจ๋ธ์ ์์๋ก ๋ค์ด ์ค๋ช
ํ๊ฒ ์ต๋๋ค.
Deit Tiny์ Attention Head์ Q, K, V์ ๊ตฌ์กฐ
Deit Tiny๋ ๊ฐ ๋ ์ด์ด์ 3๊ฐ์ Attention Head๋ฅผ ๊ฐ์ง๊ณ ์์ต๋๋ค. ๊ฐ Attention Head๋ ์ด๋ฏธ์ง ํจ์น์ ์ ๋ณด๋ฅผ ๋ด๊ณ ์๋ ํ ํฐ๋ค์ ์ฒ๋ฆฌํ๋ฉฐ, ์ด๋ค์ ๊ตฌ์ฒด์ ์ธ shape๋ 3x197x64์ ๋๋ค. ์ด๋ฅผ ๊ตฌ์ฒด์ ์ผ๋ก ํด์ํ๋ฉด ๋ค์๊ณผ ๊ฐ์ต๋๋ค:
๐ก
- Attention Head๋ ์ด 3๊ฐ๊ฐ ์กด์ฌํฉ๋๋ค.
- Attention Head๋ 197๊ฐ์ ํ ํฐ์ ๋ฐ์๋ค์ด๋ฉฐ, ์ด๋ CLS ํ ํฐ์ ํฌํจํ ์ ์ฒด ์ด๋ฏธ์ง ํจ์น๋ฅผ ์๋ฏธํฉ๋๋ค.
- ๊ฐ ํ ํฐ์ ๊ธธ์ด 64์ ํน์ง ๋ฒกํฐ๋ฅผ ๊ฐ์ง๊ณ ์์ต๋๋ค.
๋ฐ๋ผ์, Attention Head๋ง๋ค 197๊ฐ์ ํ ํฐ์ด ๊ฐ๊ฐ 64์ฐจ์์ ํน์ง ํํ์ ๊ฐ์ง๋ฉฐ, ์ด๋ค์ด ๋ชจ์ฌ 3x197x64 ๊ตฌ์กฐ๋ฅผ ํ์ฑํฉ๋๋ค.
ํ ํฐ ๊ตฌ์ฑ - 196๊ฐ์ ์ด๋ฏธ์ง ํจ์น + 1๊ฐ์ CLS ํ ํฐ
197๊ฐ์ ํ ํฐ ์ค 196๊ฐ๋ ์๋ณธ ์ด๋ฏธ์ง์ 14x14 ํจ์น๋ฅผ ๋ํ๋ด๋ฉฐ, ๊ฐ ํจ์น๊ฐ ๊ฐ๋ณ ํ ํฐ์ผ๋ก ํํ๋ฉ๋๋ค. ๊ทธ๋ฆฌ๊ณ ์ฒซ ๋ฒ์งธ ํ ํฐ์ CLS(Classification) ํ ํฐ์ผ๋ก, ์ต์ข ์์ธก์ ์ํ ์ข ํฉ์ ์ธ ์ ๋ณด๋ก ์ฌ์ฉ๋ฉ๋๋ค. ์ด CLS ํ ํฐ์ ์ ์ฒด ์ด๋ฏธ์ง์ ๋ํ์ ์ธ ์ ๋ณด๋ฅผ ํตํฉํ์ฌ, ๋ง์ง๋ง ์ถ๋ ฅ ๋ ์ด์ด์์ ์ต์ข ๋ถ๋ฅ๋ ์์ธก ์์ ์ ์ํํ๋ ๋ฐ ํ์ฉ๋ฉ๋๋ค.
์ด์ , Q์ K์ ํ์ด ์ด๋ค ์๋ฏธ๋ฅผ ๊ฐ์ง๋์ง ์ดํด๋ณด๊ฒ ์ต๋๋ค.
Q์ K์ ์ญํ - ์ด๋ฏธ์ง์ ์์น ๊ด๊ณ๋ฅผ ํ์ ํ๋ ๋ฐฉ๋ฒ
๊ฐ ํจ์น ํ ํฐ์ ๋ํด Query(Q)์ Key(K) ํ๋ ฌ์ด ์์ฑ๋๋ฉฐ, ์ด๋ค์ ๊ฐ ์ด๋ฏธ์ง ํจ์น์ ํน์ ์์น์ ๊ด๋ จ๋ 64์ฐจ์์ ํน์ง ๋ฒกํฐ๋ฅผ ๊ฐ์ง๊ณ ์์ต๋๋ค. ์ด๋ฅผ ํตํด transformer๋ ์ด๋ฏธ์ง ํจ์น๋ค ๊ฐ์ ์ ์ฌ์ฑ์ ๊ณ์ฐํ๊ณ , ์ด๋ค ํจ์น๋ค์ด ๋ค๋ฅธ ํจ์น๋ค๋ก๋ถํฐ ๋ ๋ง์ ์ ๋ณด๋ฅผ ๊ฐ์ ธ๊ฐ์ผ ํ๋์ง ๊ฒฐ์ ํฉ๋๋ค.
๋ค์๊ณผ ๊ฐ์ด Q, K, V์ ์ญํ ์ ์ดํดํ ์ ์์ต๋๋ค:
๐ก
- ์ด๋ฏธ์ง์ ํน์ ํจ์น๊ฐ ํน์ง ๋ฒกํฐย ๋ฅผ ๊ฐ์ง๋ค๊ณ ๊ฐ์ ํฉ๋๋ค.
- ์ดํ ์ ๋ฉ์ปค๋์ฆ์์๋ ์ด ํน์ง ๋ฒกํฐย ์ ๋ค๋ฅธ ํจ์น์ Key ๋ฒกํฐย ย ๊ฐ์ ์ ์ฌ์ฑ์ ๊ณ์ฐํฉ๋๋ค.
โ ์ด๋, ํน์ ํจ์น ์์น์ ํด๋นํ๋ Key ๋ฒกํฐย ๊ฐ Query ๋ฒกํฐย ์ ์ ์ฌํ ์๋ก ํด๋น ์์น๋ก๋ถํฐย ์ ๋ ๋ง์ ์ ๋ณด๊ฐ ํ๋ฆ ๋๋ค. ์ด๋ฅผ ํตํด ๋ชจ๋ธ์ ๊ฐ ํจ์น๊ฐ ์๋ก ์ด๋ค ๊ด๊ณ์ ์๋์ง๋ฅผ ํ์ ํ๋ฉฐ, attention์ด ์ง์ค๋์ด์ผ ํ ๋ถ๋ถ์ ๊ฐ์กฐํฉ๋๋ค.
๊ฒฐ๊ณผ์ ์ผ๋ก, ์ ์ฌํ Q์ K๋ฅผ ๊ฐ์ง ํจ์น๋ค์ ์ํธ๊ฐ์ ๊ด๊ณ๊ฐ ๊ฐํ๊ฒ ํ์ฑ๋๋ฉฐ, transformer๋ ์ด๋ฅผ ๋ฐํ์ผ๋ก ์ด๋ฏธ์ง ๋ด์์ ์ค์ํ ์์น์ ํจ์น ๊ฐ์ ์๊ด๊ด๊ณ๋ฅผ ํ์ตํ๊ฒ ๋ฉ๋๋ค.

image fromย http://jalammar.github.io/illustrated-transformer
Vision Transformer์ ๋นํ๊ธฐ ์ด๋ฏธ์ง๋ฅผ ์ ๋ ฅ์ผ๋ก ๋ฃ์ผ๋ฉด, ์ด ์ด๋ฏธ์ง๋ transformer ๋ ์ด์ด๋ฅผ ๊ฑฐ์น๋ฉฐ ๋ค์ํ ํน์ฑ์ ํ์ตํ๊ฒ ๋ฉ๋๋ค. ์ด ๊ณผ์ ์์ ์ค์ํ ์ญํ ์ ํ๋ ๊ฒ์ด ๋ฐ๋ก Query(Q)์ Key(K)์ ๋๋ค. ์ฌ๊ธฐ์๋ ๋นํ๊ธฐ ์ด๋ฏธ์ง๋ฅผ ์๋ก ๋ค์ด, Q์ K๊ฐ ์ด๋ป๊ฒ ์๋ํ๋์ง ์ดํด๋ณด๊ฒ ์ต๋๋ค.

ViT์์ Q์ K๋ ๊ฐ๊ฐ ์ด๋ฏธ์ง์ ํน์ ์์น์์ ํน์ง ๋ฒกํฐ๋ฅผ ๋ํ๋ ๋๋ค.
์๋์ ๊ฐ์ด ์๋ฅผ ๋ค์ ์ ์์ต๋๋ค.
์ฌ๊ธฐ์ i์ j๋ ์ด๋ฏธ์ง์ ํน์ ํจ์น ์์น๋ฅผ ์๋ฏธํ๊ณ , c๋ ํน์ ์ฑ๋์ ๋ํ๋ ๋๋ค.
์ด์ ์ค์ํ ์ง๋ฌธ์ โK ๋ฒกํฐ๊ฐ ๊ฐ ์์น์์ Q ๋ฒกํฐ๋ก ์ด๋ป๊ฒ ์ ๋ณด๋ฅผ ์ ๋ฌํ ์งโ์ ๋๋ค. ์ด๋ Q์ K์ ๋ด์ ์ ํตํด ๊ณ์ฐ๋ฉ๋๋ค. ViT๋ ์ด๋ฏธ์ง์ ํน์ ํจ์น ๊ฐ์ ์ํธ์์ฉ์ ์ดํดํ๊ธฐ ์ํด, Q์ K ๋ฒกํฐ ๊ฐ์ ์ ์ฌ์ฑ์ ๋ด์ ์ ํตํด ์ธก์ ํ๊ณ , ์ด ์ ์ฌ๋์ ๋ฐ๋ผ ์ ๋ณด๊ฐ ํ๋ฅด๊ฒ ํฉ๋๋ค.
์ฌ๊ธฐ์๋ ๋ ๊ฐ์ง ์ผ์ด์ค๊ฐ ์์ต๋๋ค.
์๋ฅผ ๋ค์ด, ์์น i์ Query ๋ฒกํฐ ์ ์์น j์ Key ๋ฒกํฐ ๊ฐ ๋ชจ๋ ์์์ด๊ฑฐ๋ ์์์ธ ๊ฒฝ์ฐ, ์ด ๋์ ๊ณฑํ๋ฉด ์์๊ฐ ๋ฉ๋๋ค.
โ ์ด๋, ์์น j์์ ์์น i๋ก ์ ๋ณด๊ฐ ํ๋ฅด๊ฒ ๋ฉ๋๋ค. ์ฆ, ํด๋น ํจ์น๋ ์ ๋ณด๊ฐ ํ๋ฅด๋ ๊ฒฝ๋ก๋ก ํฌํจ๋ฉ๋๋ค.
๋ฐ๋ฉด, ๊ฐ ์์์ด๊ณ ๊ฐ ์์์ด๊ฑฐ๋ ๊ทธ ๋ฐ๋์ธ ๊ฒฝ์ฐ, ๋์ ๊ณฑํ๋ฉด ์์๊ฐ ๋ฉ๋๋ค.
โ ์ด ๊ฒฝ์ฐ์๋ ์์น j์์ i๋ก ์ ๋ณด๊ฐ ํ๋ฅด์ง ์์ต๋๋ค. ์ฆ, ๋ ํจ์น ๊ฐ์ ์ ๋ณด ์ฐ๊ฒฐ์ด ์ฝํด์ง๋ฉฐ, ์ด๋ค์ ์๋ก ๋ค๋ฅธ ํน์ฑ์ ํ์ตํ๊ฒ ๋ฉ๋๋ค.
์ด์ ์ด๋ฌํ ํน์ฑ์ ์๊ฐํํ๊ธฐ ์ํด ๊ฐ ์ด๋ฏธ์ง๋ฅผ torch.nn.Sigmoid() ๋ ์ด์ด์ ํต๊ณผ์ํฌ ์ ์์ต๋๋ค. Sigmoid ํจ์๋ ๊ฐ์ ์์์ ์์๋ก ๋๋์ด์ฃผ๊ธฐ ๋๋ฌธ์, ๋ฐ์ ํฝ์
์ ์์, ์ด๋์ด ํฝ์
์ ์์๋ก ๋ํ๋ฉ๋๋ค. ์ด๋ฅผ ํตํด Q์ K์ ํน์ฑ์ ๋ฐ๋ผ ์ด๋ฏธ์ง์ ํน์ ์์น์์ ์ ๋ณด๊ฐ ํ๋ฅด๋์ง ์ฌ๋ถ๋ฅผ ์ฝ๊ฒ ํ์ธํ ์ ์์ต๋๋ค.
๋ ๊ฐ์ง ์ฃผ์ ํจํด
๋ค์ํ ์ฑ๋์ ๋ํด Q์ K ์๊ฐํ๋ฅผ ์ดํด๋ณด๋ฉด, ๋ค์๊ณผ ๊ฐ์ ๋ ๊ฐ์ง ํจํด์ด ๊ด์ฐฐ๋ฉ๋๋ค.
๋ ์ด์ด 8, ์ฑ๋ 26, ์ฒซ ๋ฒ์งธ ์ดํ ์ ํค๋:

์ด ์ํฉ์์ Query ์ด๋ฏธ์ง์ ๋๋ถ๋ถ ์์น๊ฐ ์์์ธ ๋ฐ๋ฉด, ์ ๋ณด๋ Key ์ด๋ฏธ์ง์์ ๋นํ๊ธฐ ๋ถ๋ถ์์๋ง ํ๋ฆ ๋๋ค. ์ด๋ Query์ Key๊ฐ ๋ค์๊ณผ ๊ฐ์ ๋ฉ์์ง๋ฅผ ์ ๋ฌํ๊ณ ์์์ ์๋ฏธํฉ๋๋ค.
๋นํ๊ธฐ๋ฅผ ์ฐพ์๊ณ , ์ด๋ฏธ์ง์ ๋ชจ๋ ์์น๊ฐ ์ด ์ ๋ณด๋ฅผ ์๊ธฐ๋ฅผ ์ํด์
์ด์ฒ๋ผ ViT๋ ํน์ ํจ์น๋ฅผ ํตํด ๋นํ๊ธฐ ์์น์ ๊ด๋ จ๋ ์ ๋ณด๋ฅผ ์ฐพ๊ณ , ์ด ์ ๋ณด๋ฅผ ์ ์ฒด ์ด๋ฏธ์ง๋ก ์ ํํ์ฌ ๋ค๋ฅธ ํจ์น๋ค๋ ์ด ๋นํ๊ธฐ์ ์กด์ฌ๋ฅผ ์ธ์ํ ์ ์๊ฒ ํฉ๋๋ค.
๋ ์ด์ด 11, ์ฑ๋ 59, ์ฒซ ๋ฒ์งธ ์ดํ
์
ํค๋:

์ด ์ํฉ์์ ์ ๋ณด๋ ๋ ๋ฐฉํฅ์ผ๋ก ํ๋ฌ๊ฐ๋๋ค.
๋นํ๊ธฐ๋ฅผ ์ฐพ์์ด์. ์ด์ ์ด๋ฏธ์ง์ ๋ค๋ฅธ ๋ถ๋ถ์๊ฒ ์ด ์ ๋ณด๋ฅผ ์ ํํด์.
๋นํ๊ธฐ์๊ฒ ์ฃผ๋ณ์ ์ ๋ณด๋ฅผ ์๋ ค์ฃผ์.
์ด์ ๊ฐ์ ์๋ฐฉํฅ ์ ๋ณด ํ๋ฆ์ ํตํด, ViT๋ ๋นํ๊ธฐ ์ด๋ฏธ์ง์ ์ํ ์์น๋ฟ๋ง ์๋๋ผ, ์ฃผ๋ณ ํ๊ฒฝ๊ณผ ๋นํ๊ธฐ ๊ฐ์ ๊ด๊ณ๋ฅผ ํ์ตํ๊ฒ ๋ฉ๋๋ค. ์ด๋ฅผ ํตํด ๋ชจ๋ธ์ ์ด๋ฏธ์ง์ ์ฃผ์ ๊ฐ์ฒด์ ๊ทธ ์ฃผ๋ณ ๋ฐฐ๊ฒฝ์ด ์๋ก ์ด๋ป๊ฒ ์ฐ๊ฒฐ๋์ด ์๋์ง๋ฅผ ํ์ ํฉ๋๋ค.
ViT์ ์ค์ํ ํน์ง ์ค ํ๋๋ class token์ด ๋คํธ์ํฌ ๋ด ์ฌ๋ฌ ๋ ์ด์ด๋ฅผ ๊ฑฐ์น๋ฉฐ ๋ค์ํ ํจ์น๋ก๋ถํฐ ์ ๋ณด๋ฅผ ํตํฉํด ๊ฐ๋ค๋ ๊ฒ์ ๋๋ค. ํด๋์ค ํ ํฐ์ ์ต์ข ์์ธก์ ์ค์ํ ์ญํ ์ ํ๋ฉฐ, ๊ฐ ํจ์น๋ค์ด ์ด๋ป๊ฒ ํด๋์ค ํ ํฐ์ ์ ๋ณด๋ฅผ ์ ๊ณตํ๋์ง๋ฅผ ์ดํดํ๋ ๊ฒ์ ๋ชจ๋ธ์ ์๋ ๋ฐฉ์์ ํ์ ํ๋ ๋ฐ ์ ์ฉํฉ๋๋ค.
์ดํ
์
ํค๋๊ฐ ์ฌ๋ฌ ๊ฐ ์กด์ฌํ์ง๋ง, ๋จ์ํ๋ฅผ ์ํด ์ฌ๊ธฐ์๋ ์ฒซ ๋ฒ์งธ ์ดํ
์
ํค๋์์ ํด๋์ค ํ ํฐ์ ์ดํ
์
ํ๋ฆ์ ์ดํด๋ณด๊ฒ ์ต๋๋ค. ๊ฐ ์ดํ
์
ํ๋ ฌ()์ 197x197ํฌ๊ธฐ๋ฅผ ๊ฐ์ง๋ฉฐ, ์ด ์ค ์ฒซ ๋ฒ์งธ ํ์ ํ์ธํ๋ฉด ํด๋์ค ํ ํฐ์ด ์ด๋ฏธ์ง ๋ด ๋ค๋ฅธ ์์น๋ก๋ถํฐ ์ ๋ณด๋ฅผ ๋ฐ๋ ์ ๋๋ฅผ ์ ์ ์์ต๋๋ค. ์ฒซ ๋ฒ์งธ ๊ฐ์ ์ ์ธํ๊ณ ๋๋จธ์ง 196๊ฐ์ ๊ฐ์ ๋ณด๋ฉด, ์ด๋ 14x14 ํฌ๊ธฐ์ ํจ์น๋ค๋ก ๊ตฌ์ฑ๋์ด ํด๋์ค ํ ํฐ์ผ๋ก ์ ๋ณด๊ฐ ์ด๋ป๊ฒ ํ๋ฅด๋์ง ์๊ฐ์ ์ผ๋ก ํํํด์ค๋๋ค.
class token attention activation์ ๋ณํ ๊ณผ์


์ ์ด๋ฏธ์ง๋ ํด๋์ค ์ดํ ์ ํ์ฑํ๊ฐ ๋คํธ์ํฌ์ ๋ ์ด์ด๋ฅผ ๊ฑฐ์น๋ฉด์ ์ด๋ป๊ฒ ๋ณํํ๋์ง๋ฅผ ๋ณด์ฌ์ค๋๋ค.
์ด๊ธฐ ๋ ์ด์ด์์๋ ์ด๋ฏธ์ง ์ ์ฒด๊ฐ ํ๋ฆฟํ๊ฒ ๋ํ๋์ง๋ง, ๋ ์ด์ด๋ฅผ ๊ฑฐ๋ญํ ์๋ก ๋ชจ๋ธ์ด ๋นํ๊ธฐ ๋ถ๋ถ์ ์ ์ฐจ ์ ๋ช ํ๊ฒ ๋ถ๋ฆฌํด๋ด๋ ๊ฒ์ ๋ณผ ์ ์์ต๋๋ค. ํนํ, 7๋ฒ์งธ ๋ ์ด์ด์ฏค์์๋ ๋นํ๊ธฐ๊ฐ ๋ฐฐ๊ฒฝ์ผ๋ก๋ถํฐ ๋๋ ท์ด ๊ตฌ๋ณ๋์ด ์์ต๋๋ค.
๊ทธ๋ฌ๋ ๋ ์ด์ด๊ฐ ๋ ์งํ๋จ์ ๋ฐ๋ผ, ๋นํ๊ธฐ์ ์ผ๋ถ๊ฐ ์ฌ๋ผ์ก๋ค๊ฐ ๋ค์ ๋ํ๋๋ ํ์์ด ๋ฐ๋ณต๋ฉ๋๋ค. ์ด๋ ViT์์ ์์ฐจ ์ฐ๊ฒฐ(residual connections)์ด ์๊ธฐ ๋๋ฌธ์ ๊ฐ๋ฅํ ์ผ์ ๋๋ค.
์์ฐจ ์ฐ๊ฒฐ์ ์ญํ

์์ฐจ ์ฐ๊ฒฐ ๋๋ถ์, ํน์ ๋ ์ด์ด์์ ์ผ๋ถ ์ ๋ณด๊ฐ ์ฌ๋ผ์ ธ๋ ์ด์ ๋ ์ด์ด์ ์ ๋ณด๋ฅผ ๋ค์ ์ฐธ์กฐํ์ฌ ํ์ํ ๋ถ๋ถ์ ๋ณต์ํ ์ ์์ต๋๋ค. ์๋ฅผ ๋ค์ด, ์ ์ด๋ฏธ์ง์์์ฒ๋ผ ์ด๋ค ๋ ์ด์ด์์ ๋นํ๊ธฐ์ ์ผ๋ถ๊ฐ ์ดํ ์ ๋งต์์ ์ฌ๋ผ์ง๋๋ผ๋, ๋ค์ ๋ ์ด์ด์์ ์ด์ ๋ ์ด์ด์ ์์ฐจ ์ ๋ณด๋ฅผ ํตํด ๋ค์ ๋ํ๋ฉ๋๋ค.
์์ฐจ ์ฐ๊ฒฐ์ ViT๊ฐ ์ค์ํ ํจํด์ ์์ ์ ์ผ๋ก ์ ์งํ๊ฒ ํด์ฃผ๋ ์ญํ ์ ํฉ๋๋ค. ์ด๋ ๋คํธ์ํฌ๊ฐ ๊น์ด์ง์๋ก ์ค์ํ ์ ๋ณด๊ฐ ์์ค๋์ง ์๊ณ ์ ์ง๋ ์ ์๋๋ก ํ์ฌ, ์ต์ข ์ ์ผ๋ก ๋ชจ๋ธ์ ์์ธก ์ฑ๋ฅ์ ํฅ์์ํค๋ ๋ฐ ๊ธฐ์ฌํฉ๋๋ค.
ํธ๋์คํฌ๋จธ์ ์ดํ ์ ํ๋ฆ์ ์๊ฐํํ๋ ๋ฐฉ๋ฒ
์ด์ ์ด๋ฏธ์ง๋ค์์๋ ๊ฐ๋ณ ํ์ฑํ๊ฐ ์ด๋ป๊ฒ ์๊ฒผ๋์ง๋ฅผ ํ์ธํ ์ ์์์ง๋ง, ํธ๋์คํฌ๋จธ ์ ์ฒด์์ ์ดํ ์ ์ด ์ฒ์๋ถํฐ ๋๊น์ง ์ด๋ป๊ฒ ํ๋ฅด๋์ง๋ ๋ณด์ฌ์ฃผ์ง ๋ชปํ์ต๋๋ค. ์ด๋ฅผ ์ ๋ํํ๊ธฐ ์ํด ์ฌ์ฉํ ์ ์๋ ๊ธฐ๋ฒ์ด ๋ฐ๋ก Attention Rollout์ ๋๋ค. ์ด ๊ธฐ๋ฒ์ Samira Abnar์ Willem Zuidema์ < Quantifying Attention Flow in Transformers >์์ ์๊ฐ๋์์ผ๋ฉฐ, ํธ๋์คํฌ๋จธ์ ์ดํ ์ ํ๋ฆ์ ์ ๋ํํ์ฌ ์๊ฐํํ๋ ๋ฐ ์ ์ฉํฉ๋๋ค. ์ด ๋ฐฉ๋ฒ์ ๋ํ ViT๋ก ์ ๋ช ํ < An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale >์์๋ ์ธ๊ธ๋์์ต๋๋ค.
Attention Rollout ๊ธฐ๋ฒ์ ์๋ ๋ฐฉ์
Transforemer์ ๊ฐ ๋ธ๋ก์์ ์ฐ๋ฆฌ๋ ์ดํ ์ ํ๋ ฌย ์ ์ป์ต๋๋ค. ์ด ํ๋ ฌ์ ์ด์ ๋ ์ด์ด์ ํ ํฐย ์์ ๋ค์ ๋ ์ด์ด์ ํ ํฐย ๋ก ์ผ๋ง๋ ๋ง์ ์ดํ ์ ์ด ํ๋ฅด๋์ง๋ฅผ ๋ํ๋ด๋ ๊ฐ์ ๋๋ค. ๊ฐ ๋ ์ด์ด ์ฌ์ด์ ์ดํ ์ ํ๋ ฌ๋ค์ ์์ฐจ์ ์ผ๋ก ๊ณฑํจ์ผ๋ก์จ, ์์๋ถํฐ ๋๊น์ง ๋ชจ๋ ๋ ์ด์ด์์ ๋์ ๋ ์ ์ฒด ์ดํ ์ ํ๋ฆ์ ๊ตฌํ ์ ์์ต๋๋ค.
์์ฐจ ์ฐ๊ฒฐ๊ณผ ํญ๋ฑ ํ๋ ฌ
Transformer๊ตฌ์กฐ์๋ ์์ฐจ ์ฐ๊ฒฐ์ด ํฌํจ๋์ด ์์ด, ์ค๊ฐ ๋ ์ด์ด์ ์ ๋ณด๊ฐ ์ฌ๋ผ์ง์ง ์๊ณ ๋ค์ ๋ ์ด์ด๋ก ์ ๋ฌ๋ฉ๋๋ค. ์ด๋ฅผ ๋ชจ๋ธ๋งํ๊ธฐ ์ํด ๊ฐ ๋ ์ด์ด์ ์ดํ ์ ํ๋ ฌ์ ํญ๋ฑ ํ๋ ฌย ์ ๋ํด์ฃผ๋ ๋ฐฉ์์ ์ฌ์ฉํฉ๋๋ค. ์ฆ,ย ๋ฅผ ํตํด ์์ฐจ ์ฐ๊ฒฐ์ ๋ฐ์ํ ์ดํ ์ ํ๋ ฌ์ ๊ตฌํ ์ ์์ต๋๋ค.
์ฌ๋ฌ ๊ฐ์ ์ดํ ์ ํค๋ ์ฒ๋ฆฌ ๋ฐฉ๋ฒ
Transformer์๋ ์ผ๋ฐ์ ์ผ๋ก ์ฌ๋ฌ ๊ฐ์ ์ดํ ์ ํค๋๊ฐ ์กด์ฌํ๋ฉฐ, ๊ฐ ํค๋๋ ๋ค๋ฅธ ์ ๋ณด๋ฅผ ํ์ตํฉ๋๋ค. Attention Rollout ๊ธฐ๋ฒ์์๋ ๋ชจ๋ ํค๋์ ํ๊ท ์ ์ทจํด ํ๋์ ์ดํ ์ ํ๋ ฌ์ ๊ณ์ฐํ๋ ๊ฒ์ ๊ถ์ฅํฉ๋๋ค. ๊ทธ๋ฌ๋ ๊ฒฝ์ฐ์ ๋ฐ๋ผ ์ต์๊ฐ, ์ต๋๊ฐ์ ์ฌ์ฉํ๊ฑฐ๋ ๊ฐ์ค์น๋ฅผ ๋ค๋ฅด๊ฒ ์ค ์๋ ์์ต๋๋ค.
Attention Rollout์ ๊ณ์ฐ
์ต์ข ์ ์ผ๋ก, ๋ ์ด์ดย ์์์ Attention Rollout ํ๋ ฌ์ ๋ค์๊ณผ ๊ฐ์ ์ฌ๊ท์ ๋ฐฉ์์ผ๋ก ๊ณ์ฐ๋ฉ๋๋ค:
๋ํ ์ ์ฒด ์ดํ ์ ํ๋ฆ์ด 1๋ก ์ ์ง๋๋๋ก ํ์ ์ ๊ทํํด์ผ ํฉ๋๋ค. ์ด๋ฅผ ํตํด ๊ฐ ํ ํฐ์ด ์ฒ์๋ถํฐ ๋๊น์ง ํธ๋์คํฌ๋จธ๋ฅผ ๊ฑฐ์น๋ฉฐ ์ด๋ป๊ฒ ์ ๋ณด๊ฐ ์ ๋ฌ๋๋์ง, ์ด๋ค ๊ฒฝ๋ก๋ก ํ๋ฅด๋์ง๋ฅผ ์๊ฐํํ ์ ์์ต๋๋ค.
โData Efficientโ ์ Attention Rollout ๊ธฐ๋ฒ์ ์ ์ฉํด๋ณด์์ผ๋, ย < An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale > ๋ ผ๋ฌธ๋งํผ ์ข์ ๊ฒฐ๊ณผ๊ฐ ๋์ค์ง ์์์ต๋๋ค.
ํนํ, ์ดํ ์ ์ด ์ด๋ฏธ์ง์ ํฅ๋ฏธ๋ก์ด ๋ถ๋ถ์๋ง ์ง์ค๋์ง ์๊ณ ์ ์ฒด์ ์ผ๋ก ๋ ธ์ด์ฆ๊ฐ ๋ง์ ๋ณด์์ต๋๋ค.

์ด๋ฅผ ๊ฐ์ ํ๊ธฐ ์ํด ๋ค์ํ ์๋๋ฅผ ํ๊ณ , ๊ทธ ๊ณผ์ ์์ ๋ ๊ฐ์ง ์ค์ํ ์์๋ฅผ ๋ฐ๊ฒฌํ์ต๋๋ค.
Attention Rollout ๊ธฐ๋ฒ์์๋ ์ฌ๋ฌ ์ดํ ์ ํค๋๋ฅผ ๊ฒฐํฉํ ๋, ์ผ๋ฐ์ ์ผ๋ก ํ๊ท ๊ฐ์ ์ฌ์ฉํ๋๋ฐ, ์ด๋ฅผ ๋ค๋ฅธ ๋ฐฉ์์ผ๋ก ํด๋ณด์์ต๋๋ค.
์๋ฅผ ๋ค์ด, ์ต์๊ฐ์ ์ฌ์ฉํ๋ ๊ฒฝ์ฐ ๊ฒฐ๊ณผ๊ฐ ์ด๋ป๊ฒ ๋ฌ๋ผ์ง๋์ง๋ฅผ ์ดํด๋ณด์์ต๋๋ค.

์ฌ๋ฌ ์ดํ ์ ํค๋๋ ๊ฐ๊ธฐ ๋ค๋ฅธ ๋ถ๋ถ์ ์ฃผ๋ชฉํ๋๋ฐ, ์ต์๊ฐ์ ์ฌ์ฉํ๋ฉด ๊ณตํต๋ ๊ด์ฌ ์์ญ์ ๋จ๊ธฐ๋ฉด์ ๋ ธ์ด์ฆ๋ฅผ ์ค์ด๋ ๋ฐ ๋์์ด ๋ฉ๋๋ค. ๋ค๋ง, ๋ฎ์ ์ดํ ์ ๊ฐ์ ์ ๊ฑฐํ๋ ๋ฐฉ๋ฒ๊ณผ ํจ๊ป ์ต๋๊ฐ์ ๊ฒฐํฉํ๋ ๊ฒ์ด ์ต์์ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ฃผ์์ต๋๋ค.
๋ชจ๋ ์ดํ ์ ๊ฐ์ ์ฌ์ฉํ์ง ์๊ณ , ๋ฎ์ ์ดํ ์ ๊ฐ์ ํฝ์ ์ ์ ๊ฑฐํ๋ ๊ฒ์ด ๊ฒฐ๊ณผ์ ํฐ ์ํฅ์ ๋ฏธ์ณค์ต๋๋ค.
์๋ ์ด๋ฏธ์ง๋ ์ ์ง์ ์ผ๋ก ์ดํ
์
๊ฐ์ด ๋ฎ์ ํฝ์
์ ์ ๊ฑฐํด๊ฐ๋ฉฐ ์ดํ
์
๋งต์ด ์ด๋ป๊ฒ ๋ณํํ๋์ง ๋ณด์ฌ์ค๋๋ค. ๋ ๋ง์ ํฝ์
์ ์ ๊ฑฐํ ์๋ก ์ด๋ฏธ์ง ๋ด ์ฃผ์ ๊ฐ์ฒด๊ฐ ๋ ๋ช
ํํ ๋๋ฌ๋๋ ๊ฒ์ ๋ณผ ์ ์์ต๋๋ค.


์๋๋ ์ด๋ฌํ ์์ ์ฌํญ์ ๋ฐ์ํ ์ต์ข
๊ฒฐ๊ณผ์
๋๋ค.


๋ ธ์ด์ฆ๊ฐ ๋ง๊ณ ์ค์ํ ๊ฐ์ฒด๊ฐ ๋ช ํํ ๋๋ฌ๋์ง ์์ต๋๋ค.
๋ฎ์ ์ดํ ์ ๊ฐ์ ๋ฒ๋ฆฌ๊ณ ์ต๋๊ฐ ๊ฒฐํฉ์ ์ ์ฉํ ๊ฒฐ๊ณผ๋ก, ์ด๋ฏธ์ง ๋ด ์ฃผ์ ๊ฐ์ฒด๊ฐ ๋ ๋๋ ทํ๊ฒ ๊ฐ์กฐ๋ ๊ฒ์ ํ์ธํ ์ ์์ต๋๋ค.
์ด์ฒ๋ผ Attention Rollout ๊ธฐ๋ฒ์ ์ต์ ํํ๋ ๊ณผ์ ์์, ์ดํ ์ ํค๋๋ฅผ ๊ฒฐํฉํ๋ ๋ฐฉ์๊ณผ ๋ถํ์ํ ํฝ์ ์ ์ ๊ฑฐํ๋ ๋ฐฉ์์ด ๋งค์ฐ ์ค์ํ๋ค๋ ๊ฒ์ ์ ์ ์์ต๋๋ค. ์ด๋ฅผ ํตํด ViT๊ฐ ์ฃผ๋ชฉํ๋ ์์ญ์ ๋ ์ ํํ๊ฒ ์๊ฐํํ ์ ์๊ฒ ๋์์ต๋๋ค.
Transformer์ ์์ธก ๊ณผ์ ์์ ํน์ ํด๋์ค๊ฐ ๋์ ์ ์๋ฅผ ๋ฐ๋ ์ด์ ๋ฅผ ์ดํดํ๊ณ ์ถ์ ๋, ํด๋์ค๋ณ ์ค๋ช ๊ฐ๋ฅ์ฑ(Class Specific Explainability)์ ํตํด ๊ทธ ๋ต์ ์ฐพ์ ์ ์์ต๋๋ค. ์๋ฅผ ๋ค์ด, โ์นดํ ๊ณ ๋ฆฌ 42์์ ๋์ ์ถ๋ ฅ ์ ์๋ฅผ ์ป๋ ๋ฐ ๊ธฐ์ฌํ๋ ์ด๋ฏธ์ง์ ๋ถ๋ถ์ ์ด๋์ธ๊ฐ?โ์ ๊ฐ์ ์ง๋ฌธ์ ๋์ง ์ ์์ต๋๋ค.
์ด๋ฅผ ๊ตฌํํ๊ธฐ ์ํ ๋ฐฉ๋ฒ ์ค ํ๋๊ฐ ๋ฐ๋ก Gradient Attention Rollout์ ๋๋ค. ์ด ๊ธฐ๋ฒ์์๋ ๊ฐ ๋ ์ด์ด์ ์ดํ ์ ํค๋๊ฐ ์ฃผ๋ชฉํ๋ ์์น๋ฅผ ์๊ฐํํ๋, ํน์ ํด๋์ค์ ๋ํ ๊ทธ๋ ์ด๋์ธํธ ์ ๋ณด๋ฅผ ํ์ฉํ์ฌ ๊ด์ฌ๋๋ฅผ ๊ฐ์ค์น๋ก ๋ถ์ฌํฉ๋๋ค. ํ์ฌ๋ softmax ์ดํ์ ์ดํ ์ ๊ฐ์ ์ ์ฉํ๊ณ ์์ง๋ง, ๋ค๋ฅธ ์์น์ ์ ์ฉํ ์๋ ์์ต๋๋ค.
์์์ผ๋ก๋ ๋ค์๊ณผ ๊ฐ์ด ํํ๋ฉ๋๋ค.


์ ๊ฒฝ๋ง์ ํน์ ๋ถ๋ถ์ ์ต๋ ํ์ฑํ์ํค๋ ์ ๋ ฅ ์ด๋ฏธ์ง๋ฅผ ์ฐพ๋ ๊ธฐ๋ฒ์ธ Activation Maximization์ ์ฌ์ฉํ๋ฉด, ๋ชจ๋ธ์ด ์ด๋ค ํน์ง์ ํ์ตํ๋์ง๋ฅผ ๋ ๋ช ํํ ์ ์ ์์ต๋๋ค. ์ด๋ ๋คํธ์ํฌ๊ฐ ํน์ ํ ๋ถ๋ถ์์ ๋์ ๋ฐ์์ ๋ณด์ด๋๋ก ํ๋ ์ ๋ ฅ์ ์๊ฐํํ๋ ๊ธฐ๋ฒ์ ๋๋ค.
ViT์์๋ ์ด๋ฏธ์ง๋ฅผ 14x14 ๊ฐ์ ๋ ๋ฆฝ์ ์ธ ํจ์น๋ก ๋๋๋๋ค. ๊ฐ ํจ์น๋ 16x16 ํฝ์ ๋ก ์ด๋ฃจ์ด์ ธ ์์ผ๋ฉฐ, ๋ชจ๋ธ์ด ์ด๋ฏธ์ง๋ฅผ ์ธ์ํ๋ ๊ธฐ๋ณธ ๋จ์๊ฐ ๋ฉ๋๋ค. ๋ฐ๋ผ์ Activation Maximization ๊ธฐ๋ฒ์ ViT์ ์ ์ฉํ๋ฉด, ์๋ ๊ทธ๋ฆผ์์ ๋ณผ ์ ์๋ฏ์ด ์ฐ์๋ ์ด๋ฏธ์ง๊ฐ ์๋ 14x14 ํฌ๊ธฐ์ ๊ฐ๋ณ ํจ์น๋ก ๋๋ ๊ฒฐ๊ณผ๋ฅผ ์ป์ต๋๋ค.
์ด๋ฌํ ํจ์น ๊ตฌ์กฐ๋ ์์น ์๋ฒ ๋ฉ ๋๋ถ์ ์๋ก ์ธ์ ํ ํจ์น๊ฐ ์ ์ฌํ ์ถ๋ ฅ์ ๋ด๋๋ก ์ ๋๋ฉ๋๋ค. ์๋ ์ด๋ฏธ์ง์์ ์ธ์ ํ ํจ์น๋ค์ด ์๋ก ๋น์ทํ ํน์ง์ ๊ฐ์ง๊ณ ์์ง๋ง, ํจ์น ๊ฐ์๋ ๋ฏธ๋ฌํ ๋ถ์ฐ์์ฑ์ด ๋ณด์ ๋๋ค. ์ด๋ ViT๊ฐ ์์น ์๋ฒ ๋ฉ์ ํตํด ๊ฐ ํจ์น ๊ฐ์ ๊ด๊ณ๋ฅผ ํ์ตํ๋๋ผ๋, ํจ์น ๋จ์๋ก ๋๋ ๋ ๋ฆฝ์ ์ธ ๊ตฌ์กฐ์ ํ๊ณ๋ ๋ณด์ฌ์ค๋๋ค.
ํฅํ ์ฐ๊ตฌ์์๋ ์ด๋ฌํ ํจ์น ๊ฐ์ ๋ถ์ฐ์์ฑ์ ์ค์ด๊ณ , ๋ ์์ฐ์ค๋ฌ์ด ์ฐ๊ฒฐ์ฑ์ ์ ์งํ ์ ์๋ ๊ณต๊ฐ์ ์ฐ์์ฑ ์ ์ฝ(spatial continuity constraint)์ ์ ์ฉํ๋ ๋ฐฉ๋ฒ์ด ํ๊ตฌ๋ ์ ์์ ๊ฒ์
๋๋ค. ์ด๋ฅผ ํตํด transformer๊ฐ ์ด๋ฏธ์ง๋ฅผ ์ฒ๋ฆฌํ ๋ ํจ์น๋ค ์ฌ์ด์ ์ฐ์์ ์ธ ํ๋ฆ์ ํ์ตํ๋๋ก ๊ฐ์ ํ ์ ์์ต๋๋ค.
