3.
\ begingroup美元

图灵奖有时被称为计算机科学的诺贝尔奖。今年的奖项Bengio, Hinton和LeCun的人工神经网络研究获奖。

当然,这些作者的实际工作是相当技术性的。它的核心是深度神经网络、卷积神经网络和有效的训练技术的发展。外行媒体往往会把这些结果简化到失去意义的程度。

我想有一个简洁,但仍然精确的解释,他们的贡献与外行观众分享。那么,怎样才能简单地解释这些研究人员的贡献呢?

我有自己的想法,如果没有其他令人满意的答案,我将添加他们。对于一个“外行”听众,我想假设某人上过大学水平的科学课程,但不一定是计算机科学。不过,适合那些背景更少的人的解释更好,只要它们不会失去太多的精确性。

\ endgroup美元
  • \ begingroup美元 我刚刚注意到您已经链接到一篇ACM文章,该文章描述了他们的贡献。那么,你到底在寻找什么样的答案呢? \ endgroup美元- 丁腈橡胶 4月3日14:41
  • \ begingroup美元 @我正在寻找一个符合所有这些标准的答案:a):简短。最好是几句话。b):在最大程度上不依赖特定领域的行话。c):不会损失太多的精度(即。不仅仅是“他们制造了人工大脑”。我认为这很难准确和简短地与非专业观众沟通。我想象的用例是这样的,我在我所教的学院遇到了一群一年级的CS学生,或者在休息室遇到了一位生物学教授,我想给他们一个最近获奖的电梯宣传。 \ endgroup美元- 约翰·杜塞特 4月3日14:43
  • \ begingroup美元 我认为,如果不依靠行话,很难解释他们的具体贡献。但是,例如,您可以谈论“允许模型从数据中学习的数学技术”,而不是谈论反向传播。我不知道你怎么能进一步简化这件事。 \ endgroup美元- 丁腈橡胶 4月3日14:47
  • \ begingroup美元 @我同意这很难做到。我对如何进一步简化有一些想法,但因为这很棘手,我希望有人能有比我更好的想法。例如,Hinton的反向传播可以概括为“我们早就知道神经网络能够表示复杂的模式,但我们不知道如何找到这些表示只是通过查看模式的示例。辛顿为此开发了一种算法。” \ endgroup美元- 约翰·杜塞特 4月4日3:16
  • \ begingroup美元 无论如何,我想指出的是,辛顿并没有真正发明反向传播,这在70年代就已经为人所知。见http://people.idsia.ch/~juergen/who-invented-backpropagation.html。此外,虽然这些研究人员确实对人工智能的现状做出了贡献,但由于他们的影响,有更多的人可以获得这个奖项。例如,Sepp-Hochreiter和Jürgen-Schmidhuber为LSTM的开发(这实际上无处不在)。也许他们会在接下来的几年里赢。 \ endgroup美元- 丁腈橡胶 4月4日9:06
6
\ begingroup美元

ACM相关文章描述了一些具体的技术贡献,这些贡献导致ACM授予了它们。

杰弗里•辛顿

反向传播:在1986年的一篇论文中,“学习内部表示误差传播”,与大卫Rumelhart和罗纳德·威廉姆斯,辛顿证明神经网络反向传播算法允许发现自己的内部表示的数据,使它可以使用神经网络来解决问题,以前认为是无可奈何。反向传播算法是当今大多数神经网络的标准算法。

玻尔兹曼机器: 1983年,辛顿与特伦斯·塞诺斯基(Terrence Sejnowski)一起发明了玻尔兹曼机(Boltzmann Machines),这是首批能够学习不属于输入或输出的神经元内部表征的神经网络之一。

卷积神经网络的改进: 2012年,Hinton与他的学生Alex Krizhevsky和Ilya Sutskever一起,改进了卷积神经网络,使用矫正的线性神经元和dropout正则化。在著名的ImageNet竞赛中,Hinton和他的学生几乎将物体识别的错误率降低了一半,并重塑了计算机视觉领域。

Yoshua Bengio

序列的概率模型: 20世纪90年代,Bengio将神经网络与序列的概率模型(如隐马尔科夫模型)相结合。这些想法被合并到AT&T/NCR用于阅读手写支票的系统中,被认为是20世纪90年代神经网络研究的巅峰,而现代深度学习语音识别系统正在扩展这些概念。

高维词嵌入与注意: 2000年,Bengio发表了具有里程碑意义的论文《神经概率语言模型》,该论文引入了高维词嵌入来表示词的意义。Bengio的洞察力对自然语言处理任务产生了巨大而持久的影响,包括语言翻译、问题回答和视觉问题回答。必威电竞他的团队还引入了一种注意力机制,这导致了机器翻译的突破,并形成了深度学习的顺序处理的关键组成部分。

生成性对抗网络: 2010年以来,Bengio关于生成式深度学习的论文,特别是与Ian Goodfellow共同开发的生成式对抗网络(GANs),在计算机视觉和计算机图形学领域掀起了一场革命。在这项工作的一个引人入胜的应用中,计算机实际上可以创造出原始图像,让人想起被认为是人类智能标志的创造力。

燕乐存

卷积神经网络在20世纪80年代,Leun开发了卷积神经网络,这是该领域的一个基本原理,除其他优点外,卷积神经网络在使深度学习更有效方面起着至关重要的作用。上世纪80年代末,莱肯在多伦多大学和贝尔实验室工作时,第一个在手写数字图像上训练卷积神经网络系统。如今,卷积神经网络已成为计算机视觉、语音识别、语音合成、图像合成和自然语言处理的行业标准。它们应用广泛,包括自动驾驶、医学图像分析、语音激活助手和信息过滤。

改进的反向传播算法:LeCun提出了一个早期版本的反向传播算法(backprop),并基于变分原理对其进行了清晰的推导。他加速反向传播算法的工作包括描述两种加速学习时间的简单方法。

拓宽神经网络的视野:LeCun还被认为为神经网络开发了一个更广阔的视野,作为一个广泛任务的计算模型,在早期工作中引入了一些现在人工智能中基本的概念。必威电竞例如,在识别图像的背景下,他研究了如何在神经网络中学习层次特征表示,这一概念现在在许多识别任务中经常使用。必威电竞他和Léon Bottou一起提出了一种思想,这种思想应用于每一个现代的深度学习软件中,即学习系统可以被构建为复杂的模块网络,在这种网络中,通过自动区分来进行反向传播。他们还提出了可以操作结构化数据(如图)的深度学习体系结构。

\ endgroup美元
  • \ begingroup美元 我想指出,反向传播显然是由林纳曼马而不是辛顿。 \ endgroup美元- 丁腈橡胶 4月3日14:45

你的答案

点击“发表你的答案”,你就同意了我们的服务条款,隐私政策饼干的政策

不是你要找的答案?浏览已标记的其他问题必威英雄联盟必威电竞问你自己的问题