我们到底该不该继续发展人工智能?

人工智能确实方便了人们的生活,但是霍金曾经提出过三大警告,其中一个就和人工智能有关,如果人继续发展无限制人工智能的话,迟早会出大问题。而霍金就非常反对…
关注者
293
被浏览
121,106
登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏

我们应该“继续发展人工智能”。

现有的计算机距离“霍金的警告”对应的水平还很遥远,“日本推出”的所谓“拟人机器人”跟科学家们谈论的“人工智能的威胁”更是不沾边的。现有的计算机在多个领域的表现还不能让人们满意,显然需要进一步发展。

最近几年,谷歌等科技公司一直在训练各种机器学习模型,规模搞得比不少国家投资的项目还大,因为他们认为在人工智能方面的领先可以转化为大笔利润,你无法指望“科学家对长远未来的预测”去阻挡这些人工智能发展计划——这类预测能起的作用是“让人们更关注人工智能安全课题”,OpenAI就以“可能被用来炮制假新闻”的理由反复推迟GPT系列的公开,但这也很难说有任何实际意义。

长远而言,在你个人的层面,你可以拒绝参与人工智能的发展,但是你很难不让别人去发展。与此类似,在国家的层面,可以有一些国家拒绝投资发展人工智能,但是很难阻止别国和其它非国家组织在这个领域的投资。如果你要幻想“各国达成共识禁止发展人工智能”的可能性,你大可参照“国际上普遍禁止”有没有阻止民间犯罪组织去进行走私、贩毒、买卖人口。ISIS研究人工智能,谁管得了他们呢。

对从业者来说,这不止和个人能力与理念有关,个人的努力能起的作用是有限的。投入人工智能安全研究的资金远少于其它方面,许多企业和国家行为体并不多么注重安全,更别提ISIS了。当然,这相关的安全甚至可能在理论上就不成立:

来自马德里自治大学、马克斯-普朗克人类发展研究所等机构的研究者于2021年1月初发表在《人工智能研究杂志》(JAIR)上的一篇文章谈到,由于计算本身的固有限制,人类可能无法长时间控制强人工智能

  • 例如,旨在确保人工智能无法伤害人类的抑制算法必须模拟人工智能可能采取的行为,来预测其行动的后果,在“可能造成伤害”的时候停止运行并报告。可是,抑制算法不可能良好模拟比自己的运算速度更快的AI的行为。
  • 而且,我们可能无法知道自己有没有创造出强人工智能,因为莱斯定理指出“递归可枚举语言的所有非平凡性质都是不可判定的”。我们不能“仅通过观察程序本身,就知道程序可能会输出什么”。

这不是说“强人工智能无法被控制”,而是说“强人工智能无法被永远控制”——这似乎是理所当然的。用这个当理由去阻止发展人工智能的话,你应该考虑一下“我们的后代无法被我们永远控制”的问题。

所以,目前的策略是“继续发展人工智能,并探讨如何防止人工智能毁灭人类等可怕未来”。


在打算教给人工智能来防止它们将来毁灭人类的各种概念里,人类的追求被Elierzer Yudkowsky表述为连贯的外推意志,其内容是这样的:

  • 我们的连贯外推意志是我们想要知道更多,思考得更快,变成比我们所希望的更好之人,能一起更远地成长。外推是汇集的而不是发散的,我们的愿望是连贯的而不是被干扰的;我们想要外推的被外推,我们想要解读的被解读。

当然,你无法期待ISIS的人工智能写入这种东西。也许他们会制造出负责消灭所有异教徒的超级计算机,并从一开始就不打算控制这计算机——“和异教徒一起在烈焰中燃烧”对他们来说是完全可以接受的。你可能要指望“正经的科学家比奇奇怪怪的人们更快地发展人工智能”。

而且,能贯彻“连贯的外推意志”这种理念的社会想必是相当美好的,但我们并不知道这具体是个什么样的社会。让人工智能一手包办实现此种社会的过程的话,你可以参照火箭科学:

  • 火箭科学是十分艰深的,您可能会遇到意料之外的高效率拆解(爆炸)或垂直着地(坠毁)。
  • 改造社会是十分艰深的,您可能会遇到意料之外的高效率拆解(物理)或脑袋着地(字面)。

我们不能用试错法来处理生存危机。一些科学家提出所谓预防原则:如果某件事的后果未知且大量科学家判断这事有极小可能会带来巨大的负面风险,这事最好不要搞。但即使在同行评议的学术界,这些东西的标准也是非常难判断的。

我们可以用环保的情况做参考:

  • 在一些科学家跳脚呼吁保护珊瑚礁的情况下,破坏还在持续。在我们造成的过度捕捞、海洋污染、海水酸化和水温上升的联合攻击下,全世界浅海的珊瑚都可能被摧毁,数十年后我们就可能再次看到五亿年前的大海样貌:有许多藻类和水母。

那么,你觉得“我们到底该不该继续发展经济”呢。

显然,问题根本就不在于“该不该”。人工智能的情况也是一样的。