中国科学家提出用先验知识让AI模型更懂物理规律

 作者:赵广立 来源:中国科学报 发布时间:2024/3/21 18:34:29 字体大小:

美国人工智能科技公司OpenAI开发的视频生成大模型产品Sora,因其能利用大量视觉数据生成逼真图像和视频广受赞誉,但它却被认为仍未掌握物理规律,比如很难准确模拟重力作用和玻璃破碎等。

面对这一问题,将人类知识融入深度学习模型是一个潜在解决方案。不过,帮助人工智能(AI)评估不同规则和知识是一项棘手的任务。为此,东方理工高等研究院和北京大学的联合研究团队提出并开发了一个新框架,相关成果近日以《先验知识对深度增强学习的价值》(“Worth of prior knowledge for enhancing deep learning”)为题发表在Cell Press旗下的交叉学术期刊Nexus上。

教会AI规则和知识与教孩子解决问题有类似之处。图片来源:ScienceAI

众所周知,类似ChatGPT和Sora这样的生成式人工智能模型主要依靠数据驱动。然而,如果只有数据,这些系统将无法准确学习物理定律,这也导致它难以执行许多看似简单的任务。

采用“知情机器学习”的方法是一个好思路——人们可以为模型提供一些潜在的规则来帮助指导其训练过程,但开发者对规则与数据在驱动模型准确性方面的相对重要性知之甚少。

“如果没有对世界的基本了解,大模型生成的视频本质上就是动画而非模拟。”论文通讯作者、宁波东方理工大学助理教授陈云天说:“我们正试图教会人工智能模型物理定律,这样它们就能更好地反映现实世界,从而使其在科学和工程领域更有用。”

具体而言,研究者们报告称,他们已经开发了一个框架,用于评估“知情机器学习模型”中规则和数据的相对价值。研究表明,这可以帮助AI融合现实世界的基本规律,更好地解决科学问题,比如复杂的数学问题和优化化学实验条件等。

“将人类经验嵌入人工智能模型可能提高它们的效率和推理能力,但问题是如何平衡数据和经验的影响。”论文第一作者、北京大学的徐浩博士说:“我们的框架可以用来评估不同的经验和规则,以提高深度学习模型的预测能力。”

据了解,在新开发的框架中,研究团队会计算出单一规则对给定模型预测准确性的贡献,并对不同规则之间的相互作用进行研究——因为大多数知情机器学习模型都包含多个规则,而过多的规则可能导致模型崩溃。

进而,研究人员可以调整不同规则的相对影响来优化模型,并过滤掉冗余或干扰规则。此外,他们还确定了一些协同工作的规则和完全依赖于其他规则的规则。陈云天说:“我们发现这些规则有不同的关系,利用这些关系可以使模型训练更快,准确性更高。”

经过研究和实验,研究团队发现,通过融入一些有效规则,AI模型的性能可获得显著提升,这表明“将经验性见解转化为结构化知识”的思路行得通。接下来,研究团队计划将他们的框架开发成可供开发者使用的插件工具。同时,他们也希望继续训练该框架模型,使其能够直接从数据中提取知识和规则,让AI模型“成为一个真正的人工智能科学家”。

信源地址:/html/shownews.aspx          
分享1
版权声明
?本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
?