🔔科技频道[奇诺分享-ccino.org]⚡️
2 天前
爱范儿
马斯克下场点赞!Kimi 这篇论文撬动了大模型的「祖传地基」
爱范儿
马斯克下场点赞!Kimi 这篇论文撬动了大模型的「祖传地基」
同样的算力,同样的数据,凭什么效果不一样?大多数人的直觉是:模型更大、数据更好、工程师更厉害。但 Kimi 给出了一个更出人意料的答案。 3 月 16 日,月之暗面 Kimi 发布了一项重磅技术报告《Attention Residuals》(注意力残差)。 这项技术针对几乎所有现代大模型都在使用的残差连接结构进行了改造,并在实验中证明,用同样多的算力,新方法训练出的模型效果相当于基线模型花费 1.25 倍算力才能达到的效果。 报告发布后,也毫无意外得到了许多硅谷顶尖 AI 人物的点赞背书。
Home
Blog
Discuss
Gsearch
Powered by
BroadcastChannel
&
Sepia