周朝最新论文登上ICLR 2022:给注意力机制Softmax找个“平替” 萧箫 转载自 周朝AI光子位 | 对政府号 QbitAITransformer很出名,但它架构上的不少疑问依旧令人头痛。典例之一就是其中的Softmax Attent 2025/09/13 12:17 首页 上一页 1 下一页 尾页