MAML의 아이디어는 가장 빨리 바뀔 수 있는 internal representation을 찾으면, task에 따라 fast adaptation이 가능할 것이라는 생각에서 motivation을 얻었다.
그래서 본 논문에서는 sensitive가 좋은 model parameter를 찾는 것을 목표로 하는데, 쉽게 말하면, parameter를 살짝만 변화시켜도 어느 task에서든 성능의 큰 개선을 만들 수 있는 model parameter를 찾는 것을 목표로 한다는 것이다.
그림을 보면, sensitive가 큰 를 찾아서 새로운 task에 따라 빠르게 adaptation이 가능하도록 하는 것이다.
각 task에 대해서 task에 해당하는 Loss function으로 값을 update한다.
update된 값으로 계산된 task 별로 loss 값의 합이 최소가 되도록 를 update 한다.
Regression에 대한 성능 평가는 sin 함수에 대해서 MAML에 의해 fine-tuning된 모델과 pretrained model과의 비교로 진행되었다.
: continuous, sinusoid function
MAML의 경우, 1 gradient step만으로도 regression의 경향성을 잘 잡아내는 반면에, pretrained model의 경우, 10 gradient steps에서도 경향성을 잘 잡아내지 못하고 있다.
MAML과 pretrained model에 대해서 MSE를 비교해봤을 때, 다음과 같다.
Classification은 기존의 few-shot learning model과의 비교로 평가가 진행되었고, dataset은 few-shot learning benchmark에서 흔히 사용되는 Omniglot과 MiniImagenet이 사용되었다.