Transformerはエンコーダ-デコーダ型の構造で、Self-Attentionがそれぞれに組み込まれる。再帰型の構成は持っていない。GTC 2020のNVIDIAの講演から。「Rethinking Impact Factor_an NLP-Driven Metric and Pipeline Using Generalized Autoregressive Pretraining on Medical Journals」(L. Tam, et al., GTC 2020)

Transformerはエンコーダ-デコーダ型の構造で、Self-Attentionがそれぞれに組み込まれる。再帰型の構成は持っていない。GTC 2020のNVIDIAの講演から。「Rethinking Impact Factor_an NLP-Driven Metric and Pipeline Using Generalized Autoregressive Pretraining on Medical Journals」(L. Tam, et al., GTC 2020)