中读

物理学在最广阔的领域都有应用空间

作者:苗千

10-15·阅读时长4分钟

677人看过
“这两个人最初具有开创性的工作都与物理学有很密切的联系。随着机器学习的发展,我们也发现它在物理学研究中有巨大的应用空间。”

物理学在最广阔的领域都有应用空间

8.40MB
00:0009:10
诺贝尔物理学奖委员会主席艾伦·蒙斯

2024年10月8日,普林斯顿大学的物理学家约翰·霍普菲尔德(John Hopfield)与多伦多大学的人工智能专家杰弗里·辛顿(Geoffrey Hinton)因“为利用人工神经网络进行机器学习做出的基础性发现和发明”而共同获得了本年度的诺贝尔物理学奖。

这是一个令很多人感到意外的结果。人工智能研究也成为物理学研究的一部分了吗?关于这两位科学家做出的贡献以及人工智能在物理学研究中的重要作用,诺贝尔物理学奖委员会主席艾伦·蒙斯(Ellen Moons)在发布会后接受了本刊的专访。

三联生活周刊:这次颁发的诺贝尔物理学奖肯定会让很多人感到吃惊。约翰·霍普菲尔德是一位分子生物学教授,而杰弗里·辛顿是一位人工智能专家。我们是否可以认为物理学的领域被拓宽了,人工智能研究也成为物理学研究的一部分?

蒙斯:首先,霍普菲尔德教授是一位物理学家(约翰·霍普菲尔德于1958年在康奈尔大学获得了物理学博士学位,他目前在普林斯顿大学担任分子生物学教授),而且他在物理学的多个领域都进行过研究工作,比如材料物理学、生物物理学,等等。他进行分子生物学研究,是因为他对于大脑的工作原理非常感兴趣,这也给他在20世纪80年代建造人工神经网络带来了灵感。当时的计算机还不像现在这样功能强大,因此他只能建造一个有30个节点的神经网络。这已经是当时计算机能力的极限了。

不仅如此,霍普菲尔德教授的工作也是源于物理学原理。比如说他的研究是源于自旋玻璃(spin glass)的原理——其中原子的自旋作用相互影响,从而呈现出一种整体现象。同样的物理学模型和能量公式都可以被用于(他所研究的)神经网络——两个节点之间的相互作用,其间的作用强度等等,与自旋玻璃的物理学原理是相同的。

至于辛顿教授,他使用统计物理学手段进行研究。所以说这两个人最初具有开创性的工作都与物理学有很密切的联系。随着机器学习的发展,我们也发现它在物理学研究中有巨大的应用空间。

三联生活周刊:能否简单介绍一下关联存储器(associative memory,也被称为霍普菲尔德网络)如何能够存储并且重建数据的结构?这是否是神经网络的一种特性?

蒙斯:这确实是神经网络的一个特性。这也是对于大脑神经元的一种非常简化的描述。我们可以想象一个网络的能量景观(energy landscape):根据在我们的大脑和人造神经网络中存储的数据和信息,会呈现出一个能量景观,在其中有高山,也有峡谷(高山指的是高能量区域,峡谷指的是低能量区域)。当有新的数据进入网络时,就像是将一个小球投入这个能量景观之中,它会自动进入到距离它最近的峡谷中(指自动进入到低能量区域),这时它便达到一个稳定状态——这就是关联存储器的工作原理。

做一个比喻,比如我们有时见到一个人觉得眼熟,但一时想不起他是谁,于是我们就会一直回想,最后终于回忆起这个人是谁。可以说,这就是一个新数据进入到能量景观的峡谷,最后达到稳定状态的过程。

霍普菲尔德进行的正是这样的工作,将数据储存于能量景观之中,而新进入的数据也可以以同样的方式被处理。比如说,输入一个不完整的图像,在网络中它可以被自动存储为一个完整的图像。这也正是人类大脑的主要功能之一。

三联生活周刊:霍普菲尔德在40多年前发明了关联存储器。他进行这项发明的初衷是什么?

蒙斯:我认为他是因为研究生物物理学以及与神经科学家的交流而受到了启发。作为一个理论物理学家,他想到对于这个领域进行最简单的模拟,最终开启了一个全新的研究领域。这也说明物理学在最广阔的领域都有应用空间。

三联生活周刊:是否可以说霍普菲尔德网络是世界上最早的人工神经网络?

蒙斯:可以说它是人工神经网络的基础。当然,对于真正的人工神经网络来说,之后还出现了很多其他的特性,例如“玻尔兹曼机”(Boltzmann machine),各种各样的算法,一直发展到现代的深度学习。但关联存储器是其最关键的基石。

三联生活周刊:对于这两位获奖者来说,霍普菲尔德与辛顿的工作有怎样的联系?

蒙斯:辛顿利用霍普菲尔德网络模型作为研究基础,之后他使用统计物理学工具对其进行了发展,利用玻尔兹曼分布和玻尔兹曼公式来描述网络的状态。他发展出一种网络,不仅具有可见节点(visible nodes),还有隐藏节点(hidden nodes)。这使网络的内部连接更加紧密,可以产生出与输入数据的分布方式类似的新数据,并且可以得出更令人满意的结果。

最开始,辛顿与同事一同开发出了玻尔兹曼机,这是一种内部可见节点和隐藏节点相互连接的网络,但这形成了一种过分复杂的结构,需要进行过多的处理。因此辛顿进一步发展出“受限玻尔兹曼机”(restricted Boltzmann machine, RBM),在其中可见节点并不相互连接,所有可见节点都与隐藏节点相连,而所有隐藏节点也都与可见节点相连。这样网络内部的连接被简化了,效率也增强了。这种受限玻尔兹曼机正是现在我们用来进行模式识别技术的基础。

三联生活周刊:我们知道人工神经网络是很多人工智能工具的基础。除了这些我们日常使用的人工智能工具之外,它在科学研究中还有哪些应用?

蒙斯:科学家们早就利用人工神经网络来处理大量的数据,从中寻找相关的信息。比如说在粒子物理学中,科学家需要处理各种各样的粒子对撞数据,但是只有其中的一部分与科学家所寻找的新粒子有关。在天文学研究中,天文学家利用人工神经网络过滤掉干扰信号,获得关于黑洞的探测数据。在医学成像领域,比如进行核磁共振检测时,有些人可能难以长时间保持静止状态,因此在检测数据中有很多的干扰信号,我们也可以利用人工神经网络过滤掉这些干扰信号,得到清晰的图像。在材料学研究中,我们也可以将所需的性能输入网络,让它去寻找具有这些性能的材料。

文章作者

苗千

发表文章326篇 获得0个推荐 粉丝3916人

中读签约作者

现在下载APP,注册有红包哦!
三联生活周刊官方APP,你想看的都在这里

下载中读APP

全部评论(0)

发评论

作者热门文章

推荐阅读