- ELMO
- GPT
- BERT
- TCNN
- Transformer
- GCN
- Node2vec/DeepWalk
- 乘性注意力
- 加性注意力
- 点乘注意力
- 减法注意力
-
自注意力(attention is all you need)
- single-head attention
- multi-head attention
-
比较
《atention is all you need》里面提出的attention一统了注意力机制的框架。之前的注意力都可以用(Q,K,V)这一套来进行表示。并且multi-head attention进一步提升了模型的表达能力。
在下面我们将针对文本分类任务来对这些attention机制的性能进行比较。具体见
- DeepFM
- DIN
- Auto Cross
Author:Lym
Email:[email protected]
Keep Carry and Going On!