文章库
PRO通讯会员
SOTA!模型
数据库
AI 好好用
登录
局部注意力机制
每生成单个目标词都需要考虑原语句子的所有词在计算上是非常昂贵的,也不是必需的。为了减少这种问题,Luong et al. [20] 提出了一种仅关注固定窗口大小 2D+1 的局部注意力机制
来源:
机器之心
登录
去登录
文章库
PRO会员通讯
SOTA!模型
数据库
ScienceAI
AI 好好用
文章库
PRO通讯会员
SOTA!模型
数据库
AI 好好用
登录