Hinton最新专访:别让AI解释自己,AI寒冬不会再来

2018 年 12 月 17 日 GAN生成式对抗网络

来源:量子位

昨天,《连线》发表了一篇专访Geoffrey Hinton的长文。

在这次加拿大G7人工智能会议上的访谈里,Hinton谈到了对谷歌军方合同的“私下”抗议,还提出了对现在AI研究的一些看法,比如:

不要让AI解释自己,那简直是个灾难。人类大多数时候都没法解释自己。

发展AI需要新型的计算硬件(他指的并不是TPU)。

我们在研究中应该追求“新想法”,不能一味看效果。从长远来看,一个全新的想法比一个微小的改进更有影响力。

另外,Hinton还说:不,不会再有AI寒冬了。

以下是采访实录:

Wired:加拿大总理特鲁多在G7大会上说,人工智能带来了一些道德挑战,对此需要做更多工作,你怎么想?

Hinton:我一直很担心致命自主武器的滥用。我认为,应该有一个类似于日内瓦公约的东西,像禁止化学武器一样禁止它们。就算不是每个国家都签署这个公约,实际上它也会起到像道德旗帜一样的作用。谁没签你是能看到的。

Wired:有一封抗议Google为国防部提供无人机图像识别服务的公开信,有4500名你的同事签了名。你签了吗?

Hinton:作为一名Google高管,我认为我不应该公开表达对公司的不满,所以,我私下表达。我没有签公开信,而是找(Google联合创始人)谢尔盖·布林谈了谈。他说他对这个事情也不满,所以,这不是他们的追求。

Wired:Google决定履行完这份合同,但是不会续签,还发布了一份AI指导方针,其中就包含了不能把这项技术用于武器。

Hinton:我认为Google的选择是正确的。各种各样的东西都需要云计算,想弄清底线设在哪确实很难。我对Google设置的底线很满意,那些原则我认为很有道理。

Wired:在日常场景里,比如在社会服务、医疗等领域用软件做决策的时候,人工智能也会带来道德问题。我们应该当心什么?

Hinton:我的专业领域是让这个技术管用,不是社会政策。这里面确实有一点和我的专业技能相关,就是判断监管者该不该坚持要求你能解释AI系统的工作原理。我认为那完全是个灾难。

在大多数事情上,人类都不能解释自己的原理。你招人的时候,是基于那些可以量化的东西来做判断,再加上各种”直觉”。人们根本不知道自己是怎么做到的。如果你让人类对自己的决定做出解释,就相当于逼他们编故事。

神经网络的问题也一样。你训练了一个神经网络,它学习的是几十亿数字,代表着从训练数据中提取的知识,输入一张图片,它给出正确的决定,比如说这是不是一个行人。但如果你要问“它为什么这么想”……如果图片里有没有行人能通过任何简单的规则来判断的话,这个问题早就解决了。

Wired:所以,我们怎么会知道什么时候能信任这些系统?

Hinton:应该根据表现来管理它们。你可以用实验来检验有没有偏见。对于无人车,我认为人们现在已经算接受了,就算不知道一辆无人车怎么做到的,如果它发生的事故比人类司机少,那就是好事。我认为我们要像对人一样来对待这个问题:看他们表现如何。

 https://arxiv.org/abs/1807.04587

Wired:在你上周发表的一篇论文中,提及应该进一步研究大脑中的学习算法。这是为什么?

Hinton:大脑和现在大多数神经网络都不一样。人类大脑有大约100万亿个突触,而人工神经网络的权重通常要小1万倍。大脑使用大量的突触,从很少的样本中尽可能多的学习。而深度学习则是利用更少的神经元连接,从大量的样本中进行学习。

我认为大脑并不关注如何把大量知识压缩成几个突触的连接,而是关注如何使用大量的连接,快速的提取知识。

Wired:那应该如何构建更强大的机器学习系统?

Hinton:我们需要转向另一种计算机。幸运的是,我这里就有一个。

(Hinton说罢把手伸到包里,掏出一块耀眼的大芯片。这个芯片是英国初创公司Graphcore的原型产品,这家公司致力于为机器/深度学习算法开发新型处理器。)

 漂亮得不像实力派

大多数用来运行神经网络的计算机,甚至包括Google的专用硬件,都得使用RAM(来存储正在使用的程序)。从RAM中获取神经网络的权重代价高昂,所以一旦软件获得了权重,就会反复使用很多次。想要改变是一个成本巨大的事情。

而在Graphcore芯片上,权重存储在处理器的缓存而不是RAM中,所以不会被移走。因此某些探索会变得更容易。 比如我们可以搞个一万亿个权重的系统,但是每次训练只涉及数十亿的权重。这种方式更接近大脑。

Wired:AI和机器学习的快速增长,是否也带来了新的挑战?

Hinton:现在一个巨大的挑战是,如果你想发表一篇机器学习论文,有一些条条框框的限制。如果你用的方法,看起来效果没那么好,那就很难发表。我不认为这能鼓励人们去思考全新的方法。

现在如果你发送了一个有着全新想法的论文,被接收的可能性非常低,或者会有一些无法理解你想法的初级同行在评审,或者一些看了太多论文的资深评审者,他们都不理解你的论文,并且认为是无稽之谈。我认为这非常糟糕。

我们应该追求的,特别是在基础科学会议上,是一些全新的想法。从长远来看,一个全新的想法比一个微小的改进更有影响力。出现这个问题的原因,就是资深人士太少,而年轻人太多。

Wired:这会破坏AI领域的进展么?

Hinton:用不了几年,问题就会自行解决。困难都是暂时的。大公司、大学都已经开始培育更多的人才,大学最终也会聘请更多的教授。

Wired:一些学者警告说,目前的AI热潮还会再次进入寒冬。

Hinton:不,不会再有AI寒冬了。现在AI都已经在你的手机里了。当年经历AI寒冬时,人工智能还不是人们日常生活的一部分。而现在AI已经是了。

高质量延伸阅读

☞ OpenPV平台发布在线的ParallelEye视觉任务挑战赛

【学界】第1届“智能车辆中的平行视觉”研讨会成功举行

【学界】生成式对抗网络:从生成数据到创造智能

【学界】OpenPV:中科院研究人员建立开源的平行视觉研究平台

【学界】基于平行视觉的特定场景下行人检测

【学界】ParallelEye:面向交通视觉研究构建的大规模虚拟图像集

【CFP】Virtual Images for Visual Artificial Intelligence

【最详尽的GAN介绍】王飞跃等:生成式对抗网络 GAN 的研究进展与展望

【智能自动化学科前沿讲习班第1期】王飞跃教授:生成式对抗网络GAN的研究进展与展望

【智能自动化学科前沿讲习班第1期】王坤峰副研究员:GAN与平行视觉

【重磅】平行将成为一种常态:从SimGAN获得CVPR 2017最佳论文奖说起

【平行讲坛】平行图像:图像生成的一个新型理论框架

【学界】基于生成对抗网络的低秩图像生成方法

【学界】Ian Goodfellow等人提出对抗重编程,让神经网络执行其他任务

【学界】六种GAN评估指标的综合评估实验,迈向定量评估GAN的重要一步

【资源】T2T:利用StackGAN和ProGAN从文本生成人脸

【学界】 CVPR 2018最佳论文作者亲笔解读:研究视觉任务关联性的Taskonomy

【业界】英特尔OpenVINO™工具包为创新智能视觉提供更多可能

【学界】ECCV 2018: 对抗深度学习: 鱼 (模型准确性) 与熊掌 (模型鲁棒性) 能否兼得 

登录查看更多
3

相关内容

【纽约大学】最新《离散数学》笔记,451页pdf
专知会员服务
123+阅读 · 2020年5月26日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
斯坦福2020硬课《分布式算法与优化》
专知会员服务
117+阅读 · 2020年5月6日
《人工智能2020:落地挑战与应对 》56页pdf
专知会员服务
194+阅读 · 2020年3月8日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
193+阅读 · 2020年2月24日
Hinton号召AI革命:重头再来;李飞飞等赞成:深度学习不是唯一
大咖来信 | 李开复:北美AI时局图
量子位
4+阅读 · 2017年12月11日
重磅!Geoffrey Hinton提出capsule 概念,推翻反向传播!
人工智能学家
7+阅读 · 2017年9月17日
Arxiv
14+阅读 · 2020年1月27日
Arxiv
20+阅读 · 2019年11月24日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
6+阅读 · 2018年2月26日
Arxiv
10+阅读 · 2018年2月9日
Arxiv
7+阅读 · 2018年1月31日
VIP会员
相关VIP内容
【纽约大学】最新《离散数学》笔记,451页pdf
专知会员服务
123+阅读 · 2020年5月26日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
斯坦福2020硬课《分布式算法与优化》
专知会员服务
117+阅读 · 2020年5月6日
《人工智能2020:落地挑战与应对 》56页pdf
专知会员服务
194+阅读 · 2020年3月8日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
193+阅读 · 2020年2月24日
相关论文
Arxiv
14+阅读 · 2020年1月27日
Arxiv
20+阅读 · 2019年11月24日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
6+阅读 · 2018年2月26日
Arxiv
10+阅读 · 2018年2月9日
Arxiv
7+阅读 · 2018年1月31日
Top
微信扫码咨询专知VIP会员