🔔科技频道[奇诺分享-ccino.org]⚡️
13 小时前
机器之心
「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度
Telegraph
|
原文
Telegraph
「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度 - 机器之心
大型语言模型已展现出卓越的能力,但其部署仍面临巨大的计算与内存开销所带来的挑战。随着模型参数规模扩大至数千亿级别,训练和推理的成本变得高昂,阻碍了其在许多实际应用中的推广与落地。 这促使研究者们围绕两个主要方向积极探索高效化技术:一是通过权重共享提升参数效率,二是根据输入复杂度动态分配计算资源,实现自适应计算。 而一切的基础则是 Transformer 架构。这次谷歌又一次坐不住了,在递归 Transformer 的基础上再次进化,发布了名为 Mixture-of-Recursions (MoR)的新 LLM…
Home
Blog
Discuss
Gsearch
Powered by
BroadcastChannel
&
Sepia