pytorch 实现 transformer
attention 是一种我们常用到的注意力机制。
attention 是一种我们常用到的注意力机制。
论文来自于百度在2020年AAAI上提出的知识增强视觉-语言预训练模型 《ERNIE-ViL: Knowledge Enhanced Vision-Language Representations Through Scene Graph》,在多个比赛上获得了 SOTA 的结果。
论文来自于ICDE2018, 论文链接,关于影响力最大化的一篇文章。