Transformer란

기존 seq2seq 문제를 푸는 모델의 한계

Untitled

→ RNN에 기반한 seq2seq 모델은

→ 따라서 attention이라는 개념이 등장

→ attention은 본래 RNN에 기반한 seq2seq 모델의 문제점을 보완하기 위해 만들어졌지만, transformer는 attention으로만 인코더와 디코더를 설계한 것이다.

Transformer특징