Transformer
추론단계 이해 self attention
추론단계 이해 - Multi-headed attention
https://github.com/google-research/bert/blob/master/modeling.py
위에서 attention_layer 함수 참고
대수의 의미
대수학은 수 대신에 문자를 사용하여 방정식의 풀이 방법이나 대수적 구조를 연구하는 학문이다. 代數 -> 수를 대신한다
BERT
이 모델이 풀려고 하는 문제는 무엇인가?
>>> arr = ['토끼','말','늑대','오리','고양이','여우','곰']
>>> for i,v in enumerate(arr,start=1):
print('number:{}, value:{}'.format(i,v))