Brain Computer Interface 기반의 중요도에 비해, 복잡하고 많은 잡음이 존재하는 EEG데이터의 분석 및 예측 어려움이 존재
⇒ 본 논문의 ATCNet을 제시하며, 우수한 MI 분류 score를 기여
(MI 작업 종류: 왼손 상상 (1) / 오른손 상상 (2) / 양발 상상 (3) / 혀 상상 (4))
본 모델은 세 가지 block으로 구성
① Convolutoin block ② Attention block ③ Temporal Convolution block
① Convolutoin block
여기서도 세 가지 종류로 분할
뇌파의 시계열 분석에는 1D CNN이 용이하겠지만, EGG와 같이 공간 정보를 가져가기 위한 2D CNN 사용. (1D CNN에서 주로 사용하는 행을 Channel이라고 부른 것은 의아함이 항상 존재.)
⇒ 이 세 가지 layer를 통과하게 되면 그림과 같이 TCxF2 (20x32) 사이즈 feature가 완성
Q. 본 논문에서는 Average Pooling을 통한 각 8,7 사이즈를 통해 56 time point를 압축했다고 언급.
하지만 모델 앞 단의 시간 정보를 가져가기 위한 (1xkc) conv layer를 통해 receptive field 정보가 들어갔을 텐데? (이 부분은 미미함으로 무시했다고 생각하고 이해 )
⇒ 이후 Sliding Window를 통해 샘플링(데이터 증강) : 하나씩 밀어가며 취하는 것이 아닌 Conv layer를 통한 병렬화로 한 번에 작업.
② Attention block
transformer의 MSA과 동일하게 사용
앞의 CV block에서 나온 feature를 통해 Q,K,V를 만들어 사용
Residual connection 으로 identity shortcut을 통한 작업
③ Temporal Convolution block
아래의 작업 실행
Dilated Convolution
classification은 layer가 깊어질 수록 픽셀 당 전체 이미지 정보가 들어가기에 좋지만(enlarge the receptive field), segmentation의 경우는 각 픽셀의 공간적 정보를 잃어버리기에 좋지 않다.
=> 이를 해결하기 위해 Dilated Convolution을 사용
이 Dilated Convolution를 기반으로 미래의 정보가 들어가지 않게 하는 Causal convolution을 사용
RFS = 1+2(KT −1) (2^L−1) 에 따라 receptive field는 19로 계산 가능.
Input개수로는 앞 전의 sliding window를 통한 (Tc(20) x F2(32) → 16개 (16x32)) 16개.
Output으로는 두 TCN Residual Block을 거쳐 나온 F2=Ft=32 사이즈 벡터
본 논문의 ATCNet을 통해 ****EEG 기반 운동 상상 분류 모델을 제안 및 우수한 성능 기여
ATCNet은 세 가지 주요 블록으로 구성: