paper: https://aclanthology.org/2022.naacl-main.290/
velog: https://velog.io/@zvezda/On-Transferability-of-Prompt-Tuning-for-Natural-Language-Processing-NAACL-2022
Prompt tuning이란?
vertual token이지만 learnable하게 만들어서 걔만 학습시킨다. 우리도 이거 이용해볼 수 있는 방법이 있나????? 하는 방법 찾아보자! 이를 다른 모델에 적용? multitask에 좋을 수도 있겠는걸????? cross-task!!!!! 오오오오오 우리꺼 같은거에서 하면 짱이겠는걸?
cross-task transfer
크로스 모달할때도 충분히 쓰겠네~~!!
비슷한 유형일 때 효과가 있다.
interpretability를 향상시킬 수있는 metric 제안?
그럼 이전과 다른점이 뭐지????
가능한 pair를 매칭한다는게 뭐지? 세개씩이 뭐지????
어떤 뉴런이 켜지고 꺼지고를 봐서 그걸 overlap이 어떻게 되는지 확인해본다 이걸로 성능 어떻게 향상되는지 본다는 거구나?
꺼지고 켜지거를 어떻게 알아???????????
레이어 여러개 있으면 하나씩 고정시키고 해가지고 실험을 해본거구나?
레이어를 고정해가지고 이런 비교도 해볼 수 있구나 black box를 좀 설명하는 느낌!