MultiTab은 다수의 관련 태스크를 동시에 학습하기 위해, feature 토큰과 task 토큰을 결합한 Transformer 기반 아키텍처와 멀티태스크 마스크드 어텐션을 통해 tabular multitask learning의 확장성과 성능을 동시에 개선한 모델이다.
Tabular 데이터는 실제 산업 환경에서 가장 널리 쓰이지만, 멀티태스크 학습(MTL) 관점에서는 상대적으로 연구가 부족했습니다. 기존 접근들은 주로:
MultiTab은 이러한 한계를 해결하기 위해
Transformer 기반 구조를 tabular MTL에 본격적으로 도입하고,
태스크 간 정보 공유와 분리를 조절할 수 있는 메커니즘을 제안합니다.
MultiTab-Net은 다음 세 가지 핵심 설계로 구성됩니다.

을 하나의 입력 시퀀스로 결합하여 Transformer에 전달합니다.
이 설계의 핵심 의도는:
즉, 단순한 파라미터 공유가 아니라
task-conditioned representation learning을 가능하게 합니다.
기존 Transformer에서 task token과 feature token이 자유롭게 attention을 주고받을 경우,
태스크 간 불필요한 간섭(task interference)이 발생할 수 있습니다.
MultiTab은 이를 해결하기 위해 멀티태스크 마스크드 어텐션을 제안합니다.
이를 통해:




MultiTab-Net은 두 가지 상호작용을 동시에 모델링합니다.
이 두 개는 독립적인 모듈이 아니라,
하나의 attention 연산을 서로 다른 축에서 해석한 개념적 구분입니다.
이를 통해 tabular 데이터에서 중요한
feature interaction + 데이터 분포 구조를 동시에 반영합니다.
기존 MLP 기반 multitask learning 대비


다양한 실제 tabular 데이터셋에서
태스크 수가 많거나
태스크 간 상관관계가 높을수록 성능 이점이 더욱 뚜렷
Synthetic benchmark를 통해
이 결과들은 단순 성능 향상보다는,
태스크 수 증가에도 표현이 안정적으로 유지됨을 보여줍니다.


MultiTab은
“tabular 데이터를 여러 태스크 관점에서 동시에 해석하기 위한 기반 모델”
로 해석할 수 있습니다.
단일 태스크 성능 극대화보다는,
하는 방향의 연구입니다.
| 관점 | TabGLM | MultiTab |
|---|---|---|
| 핵심 문제 | 표현 일반화 | 태스크 경쟁 |
| 접근 방식 | 멀티모달 정렬 | 멀티태스크 구조 제어 |
| 핵심 도구 | Graph + Text consistency | Task token + Masked Attention |
| 초점 | Representation learning | Multitask optimization |
MultiTab은 “얼마나 많이 공유할 것인가”가 아니라
“공유를 어떻게 통제할 것인가”를 처음으로 구조적으로 다룬 tabular multitask Transformer이다.