🔔科技频道[奇诺分享-ccino.org]⚡️
2 天前
机器之心
TMLR 2026 | 首篇多模态长上下文Token压缩综述:浙大、西湖大学等全面解析MLLM效率瓶颈
Telegraph
|
原文
Telegraph
TMLR 2026 | 首篇多模态长上下文Token压缩综述:浙大、西湖大学等全面解析MLLM效率瓶颈 - 机器之心
随着 GPT-4o、Gemini 3Pro 等模型的爆发,多模态大语言模型(MLLM)正在处理越来越长的上下文(Long Context)。 然而,一张高清图、一段长视频或长音频产生的 Token 数量往往是文本的数千倍,不仅挤占了宝贵的上下文窗口,更因自注意力机制的二次复杂度导致推理成本飙升。如何「给 Token 瘦身」? 近日,来自浙江大学、西湖大学等机构的研究者发布了首篇关于多模态长上下文 Token 压缩的系统性综述,已被 TMLR 2026 接收。该文提出了统一的分类体系,深入剖析了图像、视频、音频模态的压缩机制,为高效…
Home
Blog
Discuss
Gsearch
Powered by
BroadcastChannel
&
Sepia