🔔科技频道[奇诺分享-ccino.org]⚡️
18 小时前
机器之心
视觉SSL终于追上了CLIP!Yann LeCun、谢赛宁等新作,逆转VQA任务固有认知
Telegraph
|
原文
Telegraph
视觉SSL终于追上了CLIP!Yann LeCun、谢赛宁等新作,逆转VQA任务固有认知 - 机器之心
扩展无语言的视觉表征学习。 在视觉问题解答(VQA)等多模态环境中,当前视觉自监督学习(SSL)的表现还比不上语言图像预训练(CLIP)。这种差距通常归因于语言监督引入的语义,尽管视觉 SSL 模型和 CLIP 模型通常在不同的数据上进行训练。 在最近的一项研究中,Yann LeCun、谢赛宁等研究者探讨了一个基本问题: 语言监督对于多模态建模的视觉表征预训练是否必要? 论文标题:Scaling Language-Free Visual Representation Learning
Home
Blog
Discuss
Gsearch
Powered by
BroadcastChannel
&
Sepia