人工智能未来十年最大的风险是什么?

人工智能未来十年最大的风险是什么?

过去十年里,科技领域出现了许多有趣且印象深刻的发展(但也不是没有失败者)。人工智能的研究和发展在过去十年中出现了巨大的增长,部分原因是大数据集的可访问性和更强大的计算能力,促进了深度学习革命。随着人工智能应用领域最近的发展,我们对未来十年的前景有何期待?

以前关于“ 2020年愿景”的技术预测屡屡遭到打击-从完全错误到尚未出现的任何地方。人工智能的未来是最未知的领域之一,许多人工智能专家都不愿给出任何具体的预测。在2016年的一项调查中,有67%的AI研究人员表示可以实现人工超级智能,但只会在25年以上的时间内发生, 25%的人说不可能。

尽管人们对AI的普遍担忧是基于消灭人类的超级智能机器人起义,但在不久的将来,我们面临着更为紧迫的担忧。这就是所谓的“伟大的AI悖论”-担心存在的AI风险远远超出现实,这会误导人们,并分散了AI在未来十年可能引起的实际问题的注意力。本文的目的是强调我们目前拥有的AI的潜在(误用)用途以及它与人类末级超级智能的区别。 然而,具有讽刺意味的是,这篇文章也可能是一堆历史上不可靠的AI预测中的一部分……

过去十年的AI

过去十年对于AI研究来说是非常激动人心的时刻。2012年见证了AlexNet的面世。AlexNet是一种深层卷积网络,在ImageNet竞赛(用于评估自动图像分类的常用基准)上表现出明显更好的性能。原始论文在Google学术搜索中被引用超过53,000次,可以被认为是深度学习革命的开端,它引发了AI研究和应用的复兴。

专家预测,距离Go的超人性能,还有10年。

深度学习的跳板为许多进一步的AI应用打开了大门。DeepMind开发了革命性的玩游戏模型,并在2016年实现了Go中超人性能的里程碑,专家们预测这至少还有十年的时间。在过去的十年中,自然语言处理也取得了重大进展,2018年BERT的发展重新定义了该领域的技术起点,使计算机可以更好地理解我们的语言和语音。

现在,许多技术领域都在利用AI(无人驾驶汽车,语言翻译,移动电话),通过在不同行业中应用AI的速度证明了AI研究在过去十年中的重要性。的确,人工智能领域的三大知名企业获得了2018年图灵奖(诺贝尔计算奖),这表明了人工智能研究在过去十年中的重要意义。

深度学习三位大牛 Geoffrey Hinton、Yann LeCun、Yoshua Bengio因“在概念和工程方面使深度神经网络成为计算的关键组成部分的突破”获得了 2018 年的图灵奖

深度学习实际上是一个相当古老的概念,自80年代以来就存在。但是,只有在计算能力赶上并且我们拥有大型标签数据集可以满足需要大量数据的算法后,才能真正利用它。尽管深度学习使我们可以做很多令人印象深刻的事情,但我们仍然依靠一个已有30年历史的想法:我们是否可以开始发现深度学习的局限性以及需要一些新的想法?

未来十年的AI

那么,我们期望在未来十年看到什么?关于人工智能将在2020年及以后影响行业的预测很多,其中大部分是过去几年的研究,这些研究正在以新的方式进行筛选和应用。我们已经看到它促进了某些行业的发展,并且随着数据变得越来越丰富,这种情况可能会持续下去。

1.目前的人工智能在某些领域明显缺乏开发,而且距离通用人工智能还有很长的路要走。

所有这些新的创新仍处于狭窄的AI领域。仅能胜任他们设计的一项特定任务的程序(您的国际象棋AI不会擅长在餐厅预订桌子,反之亦然)。即使其中一些可以视为在人类或超人水平上执行的专家AI,但它们在根本上还是大大缺乏通用人工智能下文全部用缩写AGI代替)。即使是Go上令人印象深刻的壮举,也被认为至少需要10年,它仍然存在于狭窄/专家级AI领域。

在某些领域,我们当前狭窄的AI严重不足。它们是样本效率极低的:深度学习系统必须显示许多示例,然后才能对其进行准确分类(与只能从少数示例中学习的人类相比)。他们没有常识,也无法理解我们认为理所当然的事情,尽管人们正在不断努力将常识理解嵌入我们当前的系统中。深度学习系统也非常脆弱,其操作环境的微小变化会导致灾难性的故障,甚至可以通过对抗性攻击加以利用。

2.我们不需要为AGI担心

既然AGI看起来还有很长的路要走,我们应该担心吗?AI可能受制于 Amara 的法律:

“我们倾向于高估一项技术在短期内的效果,并低估长期效果。”

人工智能在未来十年的预期影响可能被夸大了(特别是如果我们达到深度学习的极限),并且开发AGI的后果可能甚至超出我们的想象。如果是这样的话,我们当然应该考虑如何安全地开发AGI,但也不能不掩盖我们当前AI系统可能出现的日益严重的问题。用吴恩达的话来说:

"在不远的将来,可能会有杀手级机器人大赛,但是我今天不致力于使AI变得邪恶,因为我也不必担心火星上人口过多的问题。"

关于AI安全性研究的需求存在不同的观点。马斯克的开放式AI是以安全AGI的发展为基础的,尽管他对AI的未来持肯定态度。与此形成鲜明对比的是布莱恩·考克斯(Brian Cox)的观点,布莱恩·考克斯(Brian Cox)与大多数AI专家一致认为,AGI还有很长的路要走。关于AGI的未来影响及其存在风险的概括归纳的问题在于,它使人们的注意力从我们今天面临的更为紧迫的问题上移开了。

这并不是说AI安全性研究是毫无意义的研究领域。 通过与常规AI研究一起开发AI安全性研究,我们可以确保在(如果有)AGI最终面世时,我们已经为AGI做好了准备。它甚至可以帮助提高我们的AI系统的性能。Robert Miles的YouTube频道对那些对AI安全感兴趣的人来说是一个很好的资源。

AGI作为存在风险的另一面是,它还提供了“存在的希望”:这可能是人类有史以来最好的事情。与其他存在的风险(例如核灾难)不同,AGI对人类的破坏伴随着乌托邦的诱惑。但是,我们距离世界领先的AI场景还有一段距离,但这并不意味着它不会在此期间造成损害。

我们应该担心什么?

我们目前拥有的AI可能有很多问题,即使不用担心AGI。尽管在未来十年内人工智能如何影响我们的社会和经济仍存在很多不确定性,但它很可能会继续渗透到工业的各个领域。以下是有关于未来十年使用AI的三个问题。

1.对就业和平等的影响

人工智能对就业的影响是一个备受争议的话题。有些人大大夸大了人工智能将大量劳动力自动化的能力,但另一些人认为它将创造更多的工作岗位,而不是取代它。人工智能的主要影响将是我们所做的工作类型的转变——人工智能可以取代普通的工作要素,让人类工人以一种互补的方式利用超出我们现有人工智能范围的创造力和技能。然而,这并不是没有它自己的一套压力,仍然会造成破坏;人们将需要自愿接受更多的技术在他们的工作,并重新培训,与他们的新人工智能同行一起工作。

人们还对使用AI加剧的平等问题也存在担忧。企业可以通过使用自动化系统代替人工来节省资金,这可以通过降低成本(并可能增加产量)在短期内给他们带来巨大的好处。这不仅加剧了经济不平等,而且也是一种糟糕的长期战略,因为消费者的钱会减少,无法使用上述公司提供的服务。未来还需要采取相应的措施,确保人工智能所提供的利益不会保留给处于权力地位顶端的少数人。

2.不道德及非法使用人工智能

虽然AI能够以许多有用和有益的方式使用,但它也有潜在的不道德和道德问题的使用。自主武器(以及军事领域AI的更广泛使用)是如何以某些人可能反对的方式使用AI的典型例子。谷歌在 Maven 项目上收到了很多反对意见——谷歌与美国国防部签订了开发人工智能软件分析无人机视频的合同。军事 AI 不一定是如终结者般的杀手机器人,而是有很多方法可以应用它。随着人工智能的不断发展,我们将继续看到更广泛的使用和军事能力越来越强的人工智能系统。

除了物理战争之外,人工智能还通过社交媒体和传播错误信息进行了不道德的使用。这十年最令人担心的发展之一是 DeepFakes 的崛起,以及他们如何通过高科技伪造视频和声音传播错误信息。虽然技术还不够完善,而且仍然有可能发现假货受到严格审查,但它们只会随着时间的推移而变得更好。通过使用人工智能系统传播错误信息的潜在易用性和有效性可能产生深远和高度破坏性的后果,其背后的技术仍然建立在深度学习基础上,无需跳到 AGI 。

3.缺乏对人工智能的了解

随着AI系统的广泛使用和不断研究,人们希望我们对这些系统如何学习和制定决策有很好的了解。不幸的是,当今大多数AI背后的深度学习方法基本上都是黑匣子模型-我们很难看清它们到底在做什么。模型的复杂性(通常具有数百万个参数)远远超出了人类的理解范围,并且系统本身无法解释如何做出决策。这非常令人担忧,尤其是在将这些系统部署在会直接影响我们的情况下时,例如在自动驾驶汽车或医疗应用中。

"度量指标只是你真正关心的一个指标,而不能想象优化一个指标会导致意想不到的负面结果。——雷切尔·托马斯"

我们不仅不确定我们当前的AI系统如何做出决策,而且有时它们还会学习错误的东西。使用指标来训练和评估AI系统通常会产生误导,这常常使人联想到AI系统缺乏常识。例如,人工智能学会了一种古怪而高效的方法,可以在没有真正赢得比赛的情况下最大化视频游戏中的得分。它完全按照要求进行了优化,但设计师实际上希望它能赢得比赛。尽管这是一个琐碎且无关紧要的示例,但并不需要太多的想象力就可以看到这在现实世界中如何产生重大的负面影响。

我们能做些什么?

好消息是,我们已经在研究当前和未来人工智能的潜在影响。诸如机器智能研究所和牛津人类未来研究所等组织正在研究人工智能将如何改变我们的未来(无论好坏)。人工智能技术的不断发展需要克服目前存在的一些问题(解释能力不足、偏差等问题),包括提高人工智能系统安全性的研究。

除了技术发展外,未来十年还需要看到,政策制定者及时听取专家的建议,对人工智能实施监管。此外,还需要更好地向公众宣传人工智能,并开始讨论人工智能未来的发展方向。通过将我们的努力重新集中在短期人工智能影响上,我们可以确保未来十年人工智能的崛起尽可能有益。


本文由未艾信息(www.weainfo.net编译,

原文链接:towardsdatascience.com/

发布于 2019-12-31 09:49