🔔科技频道[奇诺分享-ccino.org]⚡️
11:56 · 2024年12月20日 · 周五
机器之心
耗时缩短十倍以上,大规模AI方法加速原子模拟进程,推动更泛用的策略发展
Telegraph
|
原文
Telegraph
耗时缩短十倍以上,大规模AI方法加速原子模拟进程,推动更泛用的策略发展 - 机器之心
编辑丨& 扩展一直是提高机器学习各个领域的模型性能和泛化的关键因素。尽管在扩展其他类型的机器学习模型方面取得了成功,但对神经网络原子间电位 (NNIP) 扩展的研究仍然有限。 该领域的主要范式是将许多物理域约束合并到模型中,例如旋转等方差等对称性约束。来自美国加州大学伯克利分校和劳伦斯伯克利国家实验室 (Berkeley Lab) 的研究团队认为,这些日益复杂的领域约束抑制了 NNIP 的扩展能力,从长远来看,这种策略可能会导致模型性能停滞不前。 为了系统地研究 NNIP 扩展属性和策略,团队提出了一种全新的专为可扩展性而设计的…
Home
Blog
Discuss
Gsearch
Powered by
BroadcastChannel
&
Sepia