🔔科技频道[奇诺分享-ccino.org]⚡️
19 小时前
机器之心
NeurIPS 2025 Spotlight | 香港大学提出无需数据标记的ViT密集表征增强方法
Telegraph
|
原文
Telegraph
NeurIPS 2025 Spotlight | 香港大学提出无需数据标记的ViT密集表征增强方法 - 机器之心
本文共同第一作者为陈寅杰、颜子鹏,相关研究工作于香港大学科研实习期间完成;通讯作者 Andrew F. Luo 为香港大学助理教授。该工作已经被 NeurIPS 2025 会议接受为 Spotlight。 在视觉处理任务中,Vision Transformers(ViTs)已发展成为主流架构。然而,近期研究表明,ViT 模型的密集特征中会出现部分与局部语义不一致的伪影(artifact),进而削弱模型在精细定位类任务中的性能表现。因此,如何在不耗费大量计算资源的前提下,保留 ViT 模型预训练核心信息并消除密集特征中的伪影?…
Home
Blog
Discuss
Gsearch
Powered by
BroadcastChannel
&
Sepia