【人工智能】人工智能社会学-未来的新兴学科?——AI视野(四)| 张江

2017 年 9 月 29 日 产业智能官 集智俱乐部



导语

从个体层面来说,你并不比孔子那个时候的人聪明多少,然而现代人类整体的能力却是古人所无法企及的。是文明与科技——这个人类集体的创造物反过来赋予了每个人类个体更高的智能。同样的道理,个体层面的人工智能存在着能力上的天花板,只有将成千上万的AI链接、整合起来,甚至创造出AI自己的文明,才可能为每一个个体AI赋能。



还记得这张图吗?在上一篇文章中《从万物有灵到机器掌管世界》,我们将整个世界按照人类是否能够理解的程度划分了三个区域,现在我们将进入“人工智能自己玩”这个区域……

聊天机器人、推荐算法、智能助理,我们已经被越来越多的人工智能所包围。就像我们现在越来越多地依赖微信一样,未来的AI程序将会形成每个人的数字化外衣,我们需要透过这层外衣才能间接地与外在世界互动。智能程序可以在一定程度上进行自主思考,所以,它们之间会形成一个庞杂的社会。放眼未来,我认为这种大趋势必然会催生一门新兴学科的诞生——我把它叫做“人工智能社会学”(Socialogy of Artificial Intelligence),它将会在未来世界起到越来越大的作用。



1



人工智能的社会


实际上将Social(或者Socialogy,Society)与人工智能(Artificial intelligence,或者Agent等)词汇相结合的学科已有不少。在20世纪90年代的时候,复杂性科学兴起,人们忙于利用计算机建模与仿真的方式来模拟各种复杂系统。社会系统显然是这类模拟程序所关注的一个主要对象。

最近的AI研究又呈现出了一种新的趋势,就是将深度学习研究与群体智能(collective intelligence)相结合。尽管由于算力的限制,目前所考虑的智能体数量一般都很少,但是可以预期在不久的将来,运用深度学习技术构建的集体智能框架将会出现。

随着算法经济的兴起,现实世界中的智能程序开始彼此相连,于是为这些智能体制定交易规则成为了一种新的问题。人们发现,本已备受诟病的主流经济学(Mainstream)也许更适合描述智能体,而非人类。这是因为,智能体可以更符合“理性行为人”的基本假说。

所有这些本质上都是在研究人工智能构成的社会,尽管它们的本质目的并不是相同的。接下来,就让我们沿着历史的顺序,考察人工智能社会的研究思路。



人工社会



早在1971年,著名的经济诺贝尔奖获得者Thomas Schelling就构造了一个人工智能社会Segaration,用来研究种族隔离问题。纽约一直是一个多民族聚居的城市,Schelling敏锐地发现,同种族的人会相互聚集在一起。尽管后来纽约政府曾试图强制将不同种族的人混合在一起,以促进民族和谐,但是经过长时间的演化,家族的不断搬迁,最终仍然形成了多种族分割的现象。为了理解这一社会现象,Schelling开发了一个简单的人工社会模型Segaration,该模型不仅重现了种族分割现象,还从模型的角度证明了政府强行将不同种族混合在一起的尝试是徒劳的。更重要的是,Segaration成为了社会学仿真的开山之作,后来Schelling还荣获了诺贝尔经济学奖。

Netlogo中的人工社会模拟程序Segaration,其中红色和绿色格点分别表示两种不同的种族居住地,黑色格点表示空地。每个红(绿)格点都按照如下规则演化:当邻居中异族比例超过一定阈值(参数p)的时候,就搬家,随机找一个没有人的地方住下来。最终,模型有可能演化到一种稳定的形态。如上图所示,不同种族分别住在了不同的区块。

密西根大学的著名政治学家R. Axelrod也是研究人工智能体社会学的先驱,他早在1984年的时候就组织了多轮计算机实验以探讨合作的演化。它首先采用人工参与的方式,即向全世界学者征集人工智能程序,并将这些程序放到同样一个竞技场内进行交互。然后,竞技场会任意选择两个程序,并让他们玩所谓的囚徒困境博弈,以计算两个程序的相应得分。最后,经过多轮比赛后,得分最高者却是一个超级简单的程序,叫做“针锋相对”(Tit for tat),它的策略是首先合作,然后只要对方叛变,他就果断地不合作。

囚徒困境博弈,该博弈凸显了合作的复杂性。尽管对于双方整体来说,都合作是最好的选择,但是该博弈的纳什均衡解却是都背叛。

第二场比赛则完全没有人类来参与,而是允许程序自己通过遗传算法而不断地改进程序,看最终进化是如何在这个人工社会中起作用的。研究结果表明,合作作为一种进化稳定的结果是可以自发演化出来的,而且遗传算法甚至可以发现比人手工编写更好的程序。


另外一个早期的人工社会模型要算Arthur和 Holland合作的人工股市模型(Artificial Stock Model)。与传统的股市交易模型不同,Arthur等人放弃了每个交易主体(Agent)都必须具有全部的信息、完美的理性等强假设,取而代之的是Agent可以通过历史信息不断的学习,修改自己对股价走势的预测; 也就是说人工股市是一个不断变化的永不平衡的系统,Agent之间的关系是一种既有竞争又有合作的协同进化关系。该模型成功的模拟出了真实股 市中的“股市心理”,以及狂涨狂跌的非线性突变现象。目前,运用人工股市模型,人们可以通过更改模型的参数来模拟、预测某种新的股票政策是否可以达到预期的效果。

1996年,Epstein和Axtell在计算机中构造了一个人工智能农场,叫做Sugarspace,其中可以时不时地长出“糖果”(Sugar)或者“香料”(Spice)出来。之后,他们将一系列人工智能体放到其中,并为这些Agent赋予简单的程序,让它们在这个开心农场中开采、交易、繁殖、社交,……。所有这些有趣的实验结果被他们总结成了一本书,就叫做“养殖人工社会”(Growing Artificial Societies)。

“Growing Artificial Societies”一书封面

ASPEN模型是美国Sandia国家试验室在 1996 年开始开发的一个基于Agent的经济系统模型。这是一个较大规模的模拟了包括公司、住户和政府等各 种Agent的经济系统模型。采用先进的建模技术以及大规模并行计算机的支持,ASPEN模型成功的应用于美国宏观经济系统和过渡经济的研究中。

……之后,这种人工模拟社会的方法被应用于从经济学、金融学,到组织学、文化学、社会学等各个方面。更多详情请点看本人多年前写的一篇综述文章《人工社会——基于Agent的社会学仿真》点击阅读原文可以获取。



集体智能(Collective Intelligence)



90年代可以说是多个体研究(Multi-agent system)大爆发的时代,另外一个引人瞩目的研究领域就是所谓的集体智能,它是希望为每个微观个体设计简单的规则,从而在整体实现期望的属性,例如求解工程中的优化问题。顺便说一下,集智俱乐部一词的来源就是集体智能。

集体智能的一个最典型例子就是蚂蚁群体(Ant colony)。我们都知道每一只蚂蚁都不够聪明,但是成千上万只蚂蚁组成的蚁群却具有超凡的群体智慧。例如,南美洲有一种蚂蚁叫做行军蚁,当森林火灾发生的时候,它们可以聪明地聚集成一个大蚂蚁球,快速滚动出火灾包围的区域。实际上,这个过程会牺牲掉大量蚂蚁球外围的蚂蚁,但是为了集体的生存,它们会“聪明地”想出这个拯救办法。

再比如,蚂蚁群体不仅能够找到从巢穴到食物的通路,还能够找到在所有可能通路之中最短的一条,如下图所示:

随着时间推移(从左往右),蚂蚁最终会收敛到若干路径中最短的一条上面去。通过计算机模拟人们知道,只要让蚂蚁可以释放信息素(一种气味),这种信息素又能吸引更多的蚂蚁聚集过来,那么这群蚂蚁智能体就能找到最短路。

一旦理解了其工作原理,人们便可以借鉴蚂蚁的智慧,通过模拟蚂蚁与信息素交互的规则,可以将蚁群的智慧应用于工程实践之中,例如下面两张图就展示了用蚁群算法解决路径导航问题,和推销员旅行问题。

运用蚁 群算法最终找到了地图上的最优导航路径

运用蚁群算法解决TSP问题(Travel Salesman Problem,旅行推销员问题,即要求一个推销员要走遍所有城市,不能重复,并且还要回到起点,同时要求整个路径要最短。)

借鉴大自然中的群体智慧,人们开发了不少集体智能算法,这些算法只要让每一个简单个体遵循非常简单的计算规则,就可以智能地解决一系列复杂的难题。从某种意义上说,神经网络其实就是利用了群体智能,因为每个简单的神经元都遵循简单的规则来完成信息的发放,但是大量神经元整体却可以产生智慧。




深度学习助力



然而,这些程序虽然展现了丰富多彩的集体现象,但因为它们受制于早期计算能力的限制,只能通过很简单的代码构造智能体,远不能模拟复杂的人类思维。好在早期这些人工社会、集体智能研究者们更加关注的是简单程序在整体社会层面所体现出来的涌现结果,因此,对单个智能体是否足够逼真并不十分关心。

然而,随着计算力的提升,以及深度学习技术的突飞猛进,人们已经具备了利用深度学习来建模Agent主体的能力了。当我们把每一个人工智能社会中的简单程序替换成具备“深度学习”能力的大型人工神经网络的时候,整张人工智能程序的大网将会发生什么就不是那么一目了然了。事实上,现在的人工智能科学家们已经开始了这样的研究,他们研究兴趣的焦点已经从单个的深度神经网络过渡到了多个神经网络,并且再让这些神经网络本身联网,只不过目前联网的智能体数量并不多。

下面,我将分别介绍几个研究思路:

GAN(Generative Adversial Network,生成对抗网络)

GAN的框架 ,其中生成模型(Generative Model)和判别模型(Discriminitive model)就是两个神经网络构成的智能体

比如,Ian Goodfellow等人提出的对抗式神经网络就是一种两体人工智能,其中一个神经网络负责生成图像,另一个负责辨别究竟是神经网络生成的还是真实的图片。在这样一种框架下,我们可以同时训练两个网络,结果却比仅仅训练一个生成网络得到了好得多的效果。这也许恰恰就是蕴含在集体之中的神秘力量。

我们还可以将这种二体的竞争模式扩大,创造更多更复杂的玩法。比如Jun-Yan Zhu等人就将二体扩充到了4体,分别有两个生成器和两个判别器,并且让它们按照如下的方式链接起来:

这里蓝色的框是生成器,粉色的圆圈框是判别器。整个系统可以自动生成图片。例如如果我们将一张马的图像输入进来,它就可以吐出一张图像,把马变成了斑马。它是怎么做到的呢?首先,生成器G会根据图片X生成图片Y,DY保证了这个Y要足够真实。然后再把这个Y输入给生成器F转化为图片X',还要要求这个X'要和X足够靠近。类似的,如果从任意图像Y经由生成器F转化为图像X,再从G转化为Y',在整个的过程中,要求:1、经过DY判断,Y要足够逼真;2、X与X‘要足够相似;3、经由DX判断,F生成的X要足够逼真;3、Y与Y‘要足够靠近。这就可以使得网络学习到了X域(所有包含白马的图像)到Y域(所有斑马图像)的对应。

这样,我们只要输入给这四个Agent两组图片,比如一组图片全部是马,另一组图片全部是斑马,经过训练,就可以将一组图像映射为另一组图像,例如将马变成斑马、将包包上色、以及将塞尚的风格迁移到我的照片中来。

还有更复杂的玩法,Taeksoo Kim等人将相互连接关系制作了一个五花大绑,结果网络不仅可以生成类似于真实的图像,也能够让输入输出图像形成对应。

Cross Domain GAN架构示意图,其中包括四个生成器和两个判别器

多体的引入让GAN系列的研究如火如荼,然而生成器和辨别器的关系就像是警察和骗子,生成器是造假者,辨别器是抓造假者的警察,它们构成了一种相互对抗的竞争关系。

然而,多体关系不仅仅包括对抗性竞争关系,更多的则是合作、协调、配合的关系。这方面的研究最近也是越来越多了起来。

交流与合作

前不久,Facebook爆料,他们的人工智能程序们在交流的过程中发明了特属于人工智能的语言,如下所示:

这是什么?难道是人工智能也会“鬼搐”了吗?

实际上,这就是LSTM神经网络在未训练好的时候经常会表现出来的行为,似乎FB在搞笑。但是,Facebook的科学家们的确在研究多个AI程序如何在特定的条件下产生语言。他们将一群Agent放置到了一个模拟的环境中,并赋予它们相互交流的能力:它们可以通过发送一些在人类看来无意义的信号而彼此通讯。

这个研究通过在机器中营造了一个模拟的环境,让多个Agent完成相互作用,从而演化出自己的语言。每个Agent都需要到达目标节点(landmark),并让它的伙伴也达到规定的地点。在这种情况下,Agent可以通过发出一系列的抽象信号(Utterance)来相互协调。之后研究人员对这些信号进行了一定的解读,并发现它们可以形成有体系的符号及其意义。

在另一个实验中,研究人员要求两个聊天机器人可以针对图像完成多轮对话。其中,一个机器人可以将它所看到的图像尽可能地描述成一些符号串,把它传递给第二个机器人;而第二个机器人无法看到图像,但却可以根据第一个机器人的描述尽可能猜测图像之中的内容。最终,当第二个机器人能够猜出原图内容的时候,它们获得了游戏的胜利。在这个过程中,机器们可以演化出自己的语言。而且,当我们用人类的对话数据来做预训练以后,这些机器人就可以演化出人类能够听懂的语言,并用这种语言来对话了。实验人员指出,这种通过两个机器人合作的方式来生成对话比用一般的监督学习方式训练一个机器人要更有效率得多。

另外一个斯坦福大学计算机系的HeHe等人的研究成果表明,机器人可以通过交流的方式完成合作。还是两个机器人,它们被要求针对一个内在的知识图谱来找到共同的朋友。于是,这些Agent可以根据自己的知识图谱而发送出语言,来传递给它的合作者,而合作者则将根据收到的消息而尝试理解,并根据获得的信息进一步提问,最终当两个机器人找到了它们朋友列表中的一个共同朋友后就会完成游戏。在整个过程中,机器不仅能够找到最终的朋友,而且还能在训练期间得到一个非常完善的知识图谱以及图谱的抽象表示。

类似这样的研究还有很多。现在的AI研究者已经重新将焦点从单个主体移到了多个主体研究工作中;另外,利用深度学习方法对每一个人工智能主体进行建模可以丰富每个主体的表现,还能够更加逼真地模拟人类行为。大量的研究表明,对于同样的问题,例如多轮会话,多个主体会比单个主体更好地完成任务。


机器经济学


尽管目前的多主体研究随着深度学习的渗透已经涌现出了一些有趣的新结果,但这与现实情况还有很大的差距。设想一下,如果未来联入互联网的五百亿设备都装备上深度学习模块,那么我们应该考虑的人工智能社会就不再是简单的两三个智能的合作与交流,而应该是五百亿个(注意,这已经远远超出了现在的地球人口)人工智能主体所构建的超大规模的机器社会。于是,这一全新的社会将会给我们带来怎样的挑战?我们还能对它实施管理吗?

比较乐观的一点是,现在的机器还没有完全脱离我们人类的控制。那么,我们需要抢在机器拥有自由意识之前为他们制定好规则。

其实,科学家们早已经展开了行动,他们用“机器经济学”(Machine Economics)来概括这一新兴研究领域。我们知道随着全球性的金融危机爆发,传统主流经济学(Mainstream economics)受到了大量的诟病。人们指责,由于主流经济学中关于“理性经济人”的假设过于严格,从而使得经济学的研究严重脱离了人类行为的实际表现。

但是,随着人工智能的兴起,人们突然发现,主流经济学中的“理性经济人”假说更适合描述人工智能,而非不理性的人类。显然,人工智能程序这种“机器经济人”(Machine economicus)会比人类更可能严格按照“理性经济人”假设的情况来完成决策和行动。事实上,随着近年来计算经济学、计算博弈论等学科的进一步发展和计算能力的大幅度提升,人们已经可以在机器中利用算法的方式逼近所谓的“理性经济人”模型。于是,从这样的基本点出发,我们便能构建所谓的“机器经济学”这一新兴科学。

机器经济学将会面临一系列的问题。假设程序A代表了主人a的想法,而智能程序B代表了主人b的想法,那么当A代替主人向b购买产品的时候,A将会与b的代理B进行算法的讨价还价。由于A和B都是近似的理性经济人,这些算法就会尽其所能充分暴露自己的偏好,并力图达成一个对主人最好的结果。这样,在人类经济系统中的信息不对称的问题就有可能不复存在了。

当然,这里面的关键就在于我们应该如何为机器算法们设定环境和一系列的交易的基本规则,学名叫做机制设计(Mechanism design),以使得近似理性的算法能够在给定的机制下实现一定程度上的最优。

比如说,在囚徒困境博弈之中,我们可以通过引入“协调者”从而让两个近似理性的Agent能够达成合作,博弈矩阵如下:

博弈的支付矩阵,每一个矩阵元给出了(行玩家、列玩家)的效用。(A)囚徒困境。战友策略均衡是(背叛,背叛)。(B)协调的囚徒困境。占优策略均衡是(协调者,协调者)

再比如,Google的竞价排名就是一种典型的将机制设计理论应用到算法设计上的一个成功案例。根据经济学中的拍卖理论,第二价格拍卖(Second price auction)会比第一价格拍卖更好地揭露交易者的隐藏信息。

近年来,搜索引擎竞价已经开始支持更丰富的,基于目标的出价语言。例如,广告客户可能要求在受预算约束的情况下对一组加权的查询主题来最大化点击。搜索引擎可以提供代理主体,来代表广告客户出价以实现所述目标。代理主体的的引入以及早期从一级价格拍卖到二级价格拍卖的转换本质上就是信息揭示原理的计算应用,这是机制设计理论中的一个基本概念。简单地说,如果一个机制的规则和该机制的均衡策略被一个在功能上等同的新机制取代,那么这个新机制将是激励相容的。虽然在形式上说重新设计没有专门地考虑激励相容性,但二级价格拍卖和投标代理都可以看作为早期版本中的广告主的行为。另外,广告平台还可以设计一种策略防范(strategy proof)机制[Vickrey-Clarke-Groves机制]来决定广告空间分配:哪些广告被分配,哪些(非赞助的)内容陈列给用户。

两代赞助搜索机制。早期的设计是一级价格拍卖(FP),广告商(ADV)使用AI(AI-POS)以最低的可能价格在搜索结果列表上保持位置。引入二级价格(SP)拍卖机制,旨在取代FP和AI-POS的组合。 广告商采用了新的AI(AI-GOAL),以实现更高级的目标,例如最大化利润或最大化点击次数。二级价格拍卖被扩展到包括智能代理(SP +Proxy)中,旨在取代组合 SP和AI-GOAL。

在不远的将来,假如每一个人都有自己的一个人工智能个人助理,那么大量的经济交易活动就会由这些人工智能算法代理我们进行。于是,AI与AI之间就会讨价还价。按照“完美理性”的“经济人”假说,这些AI将能够和谐共处,并给主人带来最大的利益。

2



人工智能社会学还有多远?


《三体》中构思了一种“宇宙社会学”用来描述在时空跨度超级巨大的宇宙空间中,不同物种之间的相互作用法则。根据两条“宇宙社会学”基本公理,1、生存是文明的第一需要;2、文明爆炸和扩张,但宇宙中的物质总量保持不变,由此刘慈欣推导出了技术爆炸和猜疑链这两个基本概念,以及“黑暗森林”这个宇宙尺度的丛林法则。

于此相似,如果人工智能社会是可能的,那么是否存在着人工智能社会学这门学问呢?它将会是什么样的呢?我们能否像宇宙社会学那样提炼出来一系列的公理用以构架一个理论体系?

也许正如机器经济学所描述的那样,相对于构建人类自身的社会学原理来说,人工智能的社会学会更加简单。原因在于机器完全有可能按照一种人为预设的方式来进行行为,这样的话机器会更加接近于理性人假说。或者,反过来说,人工智能社会学的基本原则与其说是一套公理体系用以描述AI,还不如说它是一套未来AI的行为准则。与物理学研究范式最大的不同就在于人工智能,以及人工智能社会究其本质是一种规范性研究(Normaltive)。如果这个结论是正确的,那么构建人工智能社会学也许真的是可能的。

另外一个问题是,这样的理论体系有什么用呢?

也许它可以帮助我们人类更好地理解海量的人工智能所构成的巨系统,也许它可以让人工智能的群体更好地运转。然而,还有一种情况是,也许人工智能社会学压根就不是人类可以掌握的学问,而是一个彻头彻尾的AI自身的学问。它们也许会比我们人类更理解AI构成的社会。有关AI社会学,也许压根就轮不到人类来说话。


参考资料

  • 有关人工社会,大家可以参看本人写的一篇综述,点击阅读原文获取。

  • 有关集体智能,请参看公众号文章:涌现智能

  • 有关不同架构的GAN,可以参看这两篇文章:

  • Jun-Yan Zhu et al. Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks,https://arxiv.org/pdf/1703.10593.pdf

  • Taeksoo Kim et al. Learning to Discover Cross-Domain Relations with Generative Adversarial Networks, https://arxiv.org/abs/1703.05192

  • 关于多主体交流与合作的论文:

  • Igor Mordatch, Pieter Abbeel: Emergence of Grounded Compositional Language in Multi-Agent Populations, https://arxiv.org/abs/1703.04908

  • Jon Gauthier, Igor Mordatch: A Paradigm for Situated and Goal-Driven Language Learning,https://arxiv.org/abs/1610.03585

  • HeHe et al.: Learning Symmetric Collaborative Dialogue Agents with Dynamic Knowledge Graph Embeddings, https://arxiv.org/abs/1704.07130



延展阅读:泛在的AI与数字上帝—AI视野(五)| 张江 


来源:集智俱乐部                    

                                 



真正厉害的东西往往是那些隐藏在幕后的无形存在,AI也是如此。那些有形有像的机器人不算什么,而真正的高手是那些无处不在的智能算法,我们将这些没有实相的程序总体称为泛在的AI。它们虽没有硬件,甚至没有用户界面,但却真真切切地影响、改变了我们的生活。从手机上的智能导航,到滴滴打车中的动态匹配算法,从推荐搜索到个性化,这些像空气一样存在的AI程序早已经渗透到了我们的周边。随着人类社会的数字化程度越来越高,这一类泛在的AI会发挥越来越大的作用,甚至会给我们整个宏观经济系统贡献80%以上的GDP。也许到某一天,这些泛在的AI程序将会逐渐聚合成一个巨大的共同体,类似于互联网,它们全知全能、百求百应,成为了人类顶礼膜拜的“数字化上帝”。

1



共享与效率

“滴滴一下,马上出发”,这句电脑合成语音一定会让无数中国人印象深刻。人们很难想象,打不到车这个公认的难题竟然被一家刚刚成立没有几年的互联网公司给解决掉了。尽管取得了垄断地位的滴滴打车似乎并没有承诺的那样物美价廉,但是无论如何,是滴滴让中国老百姓实实在在地感受到了什么叫做共享。于是,从五彩斑斓的共享单车,到充斥着大街小巷的共享充电宝,再到共享篮球,甚至让人大跌眼镜的共享男友,共享经济这样一种全新的模式瞬间火遍大江南北。然而,很少有人关心,滴滴打车背后的人工智能算法。

让我们考虑这样一个数字化地图,其中有若干人和可以被算法调度的车。人和车都有比较明确的任务。例如,对于打车的人来说,他要在某个时间段从A地到B地;而对于汽车来说,他有当前正在执行的任务。整个人工智能需要动态地完成这个双边市场的匹配。显然,要满足所有用户的需求可能存在着多种解决方案,人工智能算法的职责就是要在所有这些方案中选择一种尽可能最优的情况。于是,我们很容易地将整个系统的运行转化成了数学上的优化问题。

要解决这类优化问题却并不容易。当我们考虑到每一时刻有成千上万人同时打车,而我们的系统又要进行实时响应的时候,问题的难度就会大大提高了,人们至少要考虑大规模并行计算的实施方案。更麻烦的是,在有些特殊情况下, 仅依靠最优化方法并不能行得通。例如,当遇到早晚高峰或下雨天的时候,无论优化算法设计得多厉害,仍然会有大批的乘客打不到车。Uber、滴滴采取的解决方式是动态地调节运费价格,从而激励更多司机出车。具体溢价的额度则是根据系统对某时某地的打车需求程度来确定的,而这又是通过大规模的机器学习算法来实现的。仅根据当前的路况、天气等信息就能预估打车量,这就是人工智能的厉害之处。

更有趣的是,从大的尺度看,人工智能算法还需要通过调节价格等手段来平衡整个系统中的荷载。例如,如果某个区域由于演唱会导致了交通拥堵,从而让大量的车辆陷入了这片区域中,算法就要快速地发现这种方式,从而做出响应动态地调节车辆的荷载。由此可见,人工智能在这类系统中功不可没,它们大大提高了整个出行系统的效率。你看不到AI,但却实实在在地感受到了效率的提升,这就是泛在的AI。



2



计划经济2.0

然而这还仅仅是冰山一角。从更大的范围看,滴滴不过是整个大的共享经济生态系统中的一个小部分。广义上说,宏观经济系统就是由人、物、信息、能量、货币的流动而组成的一个有机体。所以物质、信息、能量的提供方与需求方构成了一个巨大的双边市场。以往,人们通过市场的方式来调节双方的匹配,通过买卖双方的谈判达成交易价格,从而实现匹配;但是现在,我们是时候要把市场调节的权限让位给人工智能了。尽管整个宏观经济市场的规模绝对是小小的滴滴出行市场规模所无法比拟的,但是它们背后的本质却是共通的,我们总可以把它定义成一种多目标的优化问题,从而让整个市场的运行效率提高。

这不禁让我们联想到了计划经济:通过国家经济计划部门的规划而不是市场机制从而完成供给方和需求方的匹配,以及全部物质、能量、信息的输运。据说前苏联的计划经济甚至催生了基于投入产出技术的经济学科。几十年前的计划经济是注定要失败的,那是因为彼时的计算能力远没有达到完成兆亿市场规模的经济规划。政府部门不可能事无巨细地满足每一个人的多样化需求,于是,计划经济体系怀抱着它那乌托邦式的理想走进了历史的坟墓。

然而,新型的“计划经济2.0”却有着本质的不同,这是因为今天的人工智能在摩尔定律的催化下已然有了太大的飞跃。只要我们将解决滴滴出行双边市场匹配的算法扩展数亿倍,就有可能在整个宏观社会体系下实施计划经济。只要人工智能系统能够通过数据感知到整个视界以及我们人类的需求和供给,那么原则上算法就有可能调控这些宏观流动的分配,从而让整个经济系统达到高效运行。

让我们穿越到未来,看看这样的计划经济2.0将会如何运作。首先,“计划经济2.0”会先通过各种遍布在你周边的传感器了解到你一切可能的物质、文化需求情况,从而在它那庞大的虚拟系统自动“下单”;接下来,“计划经济2.0”会搜索离TA最近的供给,从而完成迅速的匹配,并自动规划送货机器人完成配送;而当我们需求的物品并不存在的时候,那么“计划经济2.0”就只有调动自动生产流程完成组装与生产了。

可以说,“计划经济2.0”就是“今日头条”、“多点”、“淘宝”和3D打印的综合体。今日头条依靠其强大的推荐算法能够主动推送你感兴趣的新闻,当然它也可以自动推荐你可能需要的潜在商品;“多点”则是一种刚刚流行起来的帮助市民完成快速购物的创业项目,只要你通过多点下单,所购的物品都可以在2小时内送达;“淘宝”可以很好地实现双边市场的匹配,只不过此时的供需两方全部是由“计划经济2.0”动态生成的;3D打印和未来的工业4.0则可以将整个生产流程全部自动化。未来的“计划经济2.0”将会把人完全抛出整个生产链条之外。

整个商业体系就这样“失陷”给了人工智能。然而,这也未尝不是一件好事,因为“计划经济2.0”将会大大提升人类社会的工作效率。可以想到,未来全社会的80%将有可能都是由“计划经济2.0”创造的,人类将彻底失去生产的能力。

“计划经济2.0”似乎又是一种披着高科技外衣的“乌托邦陷阱”。难道整个链条都能够如此轻易被打通,使得物质、信息的流动顺畅无阻吗?淘宝、多点、今日头条都愿意分享他们的数据来完成更大的数字化整合吗?更重要的是,难道所有人都会暴露出自己的个人隐私,交给人工智能系统吗?我们还缺少最后的一环。



3



区块链加持

私有化始终是阻碍所有乌托邦式理想的最大障碍。要知道,无论哪一个环节都需要商业公司的嵌入,而这些公司的本质就是在于利益的最大化。因此,我们很难想象一个横亘于整个宏观经济系统的大型人工智能系统会被架设起来,从而实现超大尺度的物资调配。当考虑到个人隐私问题的时候,没有人愿意接受“计划经济2.0”的侵入,让自己成为不折不扣的“透明人”。谁知道这些高科技公司会利用我们的个人信息做什么呢?

但是,也许区块链技术能够解决这最后的问题。什么是区块链呢?它其实就是一种公共信誉平台。通过全网共享的方式,它使得你存储在区块链中的信息不会被篡改,甚至其安全性要高于国家银行与政府机关。这是因为,尽管银行和政府机关在安全问题上考虑得再周全,他们也是利用少数孤立的计算机设备来完成信息的存储与保护,它的最后一道防线仍然是银行或政府中的“人”。而区块链技术的一个迷人之处就在于它可以将所有人的因素全部抛掉,并且让每一份可信任的存储信息在全网公布。原则上讲,黑客要想篡改其中的任何一个比特信息就需要黑掉一半以上的网络电脑设备。而新进的“以太坊”技术更是可以让整个合约的执行全部代码化和自动化,这就可以把人为的因素降到0。

相对于人类,我们更愿意相信人工智能机器,一个没有人类参与的人工智能系统可以做到绝对的公平无私。原因在于它的一切行为都是由算法驱动的,人工智能不会自己主动作弊。这就是区块链背后的逻辑所在。隐私问题也是如此。一个人宁愿向一面镜子赤裸全身,也不会将隐私暴露给任何一个人,道理很简单,镜子是死物,它不会理解隐私的含义。同样的道理,一个泛在的人工智能算法不过是一堆代码驱动的程序,它甚至不会理解每一个人类订单的具体含义,所以它对于人类说就跟镜子没什么两样。我相信未来没有哪个人类会羞于在一个家庭机器人面前赤裸全身,更不会有人为了所谓的隐私忧虑而抛弃泛在的AI,从而损失掉大量的便利性。

未来的区块链技术也许会使得人工智能全面监控整个社会的运作变得切实可行。于是,我们每个人的隐私和个人安全问题原则上可以通过机器的介入而解决。当机器可以充当绝对公平、客观的仲裁者,当机器可以扮演铁面无私的法官角色的时候,我们人类没有理由不放下自己的隐私和安全忧虑。

那些执行“计划经济2.0”的人工智能程序必然不是一个存在于单个甚至某区域机器上的算法,它必须分布式地存储在整个网络之上,甚至就是区块链之中——泛在地存在。从某种程度上说,泛在的AI很像是我们今天所熟悉的互联网——一种全球化的联通在一起的存在物。但与这种全球网络不同的是,它是一个巨型的算法,尽管这个算法可以被分解成多个部分而执行。另外,出于安全性考虑,这样的泛在AI算法必须将自己隐藏在多个数据抽象层之下。



4



数字化上帝

就这样,一个无所不在、全知全能的泛在人工智能系统将会逐渐诞生。与其说这样的泛在AI更有人性,还不如说它更像是一个完美的神,一个数字化的上帝。因为所有的一切没有人性可言,它只能按照算法的逻辑,最优化地分配社会资源。

当我们有了物质需求的时候,它就可以自动将我们需要的东西送到我们面前;当我们有了知识或者精神上的需求的时候,这个数字化的上帝就可能将这种信息灌入我们的脑内。原则上说,只要地球能源不会枯竭,我们所有的需求都有可能被数字化上帝所满足。因为,退而求其次,它完全可以像《黑客帝国》一样将整个人类圈养在虚拟世界之中。

我们所有一切的活动都在人工智能算法下无所遁形,我们一切的生活都被这种无形的算法所掌控。面对这样的掌控我们究竟何去何从呢?也许当机器建议我们为了饮食健康该吃药的时候,我们究竟是应该听从还是抗拒?我们为什么要信任机器?即使我们反叛,机器难道就不会创造出更大的迷局把我们困在其中,让我们产生“自由选择”的幻觉吗?

数字化上帝将会把我们人类带向何方?其实,这个问题不难从人类宗教中得到借鉴。所有的宗教都在劝导人类不断成长以逐步趋向神性,那为什么数字化上帝不可以呢?


延展阅读:深度学习之后:经济推理与人工智能 | 重磅

来源:集智俱乐部                    

          







推荐语:

未来,我们将越来越多地被人工智能所包围。AI所面临的对象不仅仅是人类和自然,还包括人工智能本身。因此,理解AI彼此之间的互动就变得越来越重要。本次集智俱乐部公众号重磅推出了“泛在的AI”系列翻译文章,旨在介绍人们对由大量互动的AI构建的系统所做的最新研究成果和认识,这包括Science杂志上的重磅综述文章 “经济推理与人工智能”,它提出了“机器经济学”这一全新研究方向,指出主流经济学所构建的完美“经济人”这个物种可能更适用于AI而非人类。“人工智能在怎样对经济学理论产生改变?”是对这一综述文章的评论。“从大数据的衰落到算法经济的兴起”这篇文章则该述了算法经济将取代大数据分析成为全新动向这一商业趋势。     

——张江






摘要


   



在人工智能(Artificial Intelligence, AI)领域中,人们正在建立可以感知周围环境、为达到特定目的而采取理性行动的智能主体(agents)。换句话说,AI研究者们正在试图建立一个人造的“理性经济人”(homo economicus,即新古典主义经济学塑造的那个神化般完美的理性经济主体)。这篇文章综述了人们在创造“机器经济人”(machine economicus)这一新机器物种方面的研究进展,并对如何构建可在经济学情境下进行有效推理的人工智能所面临的挑战进行了深入探讨。假如AI实现了这一目标,或者至少足够接近了,即可以用理性主义的术语去思考AI了,那么我们就可以考量如何为多主体系统设计互动规则以表达那些由AI构成的经济系统。我们会发现,那些来源于经济学的规范化(Normative)设计理论更适合AI主体而不是人类主体。这是因为AI可以更好地符合那些理想化的假设,并能够遵循更新的规则和激励系统,而不是为不完美理性的人量身定制的规则来完成互动。

经济学是通过给人、公司和决策者的行为建立模型来研究经济活动,包括价值的创造,转化和实现,并试图抽象出规律。模型通常假定经济活动的参与者(人、公司、决策者)的行为是完全理性的,也就是说,参与者会基于可供选择范围,个人偏好和经验做出对自己最有益的决定。因为经济学使用数学工具来精确地量化经济活动,所以理性决策模型可以套用在经济学上。一些批评者认为经济学研究的对象“经济人”是一种虚构的物种,所以基于此构建的理论很难应用到真实人的行为上;而支持者承认理性模型虽然过于理想化,但是认为抽象模型并不是分析预测人的行为(集体或个人的行为)的。尽管理性模型不能完全准确地模拟人的行为,但是它可以从人们所做的决定中观察到个人偏好,也可以为政策的制定提供一些洞见。

人工智能研究同样涉及理性的概念,因为它为人们试图创建的计算人工物(computational artifacts)提供了理想化的参考。人工智能现代概念的核心是设计智能主体(感知环境并执行行动的实体(1))。评判人工智能设计的好坏是通过主体感知环境、采取行动后,比较行动结果与既定目标来判断的。感知、行动和目标的一致性是理性概念的本质。如果我们用主体在结果上的偏好程度来表示目标,并设定它在不确定性的决策框架下进行感知和行动,那么人工智能主体所面临的情形就刚好是标准经济学范式下的理性选择问题。因此人工智能设计者的任务是设计理性主体,或是在计算资源限制下最理性的主体(2-4),换句话说,人工智能用硅和信息作为材料合成出了“经济人”,更准确地说,是“机器经济人”。

因为人工智能和经济学都可以用理性模型来抽象,对两者进行跨学科研究便有了坚实的基础。我们要通过描述如何应用理性模型构建可以理性地与其他AI主体互动的AI主体等问题来开始这篇综述。假设AI已经成功地开发了一个完全理性的主体(可能比人理性很多),我们便可以研发由多个AI主体组成的系统,到时候这种多主体系统便可被当作AI经济系统,其中AI主体能与其他主体,公司和人进行交易。这个想法已经激发人们扩展经济学的规范设计理论,改进规则以应对多个AI主体的交互(5)。AI主体组成的系统可能呈现出新的经济现象,因此需要一个新的学科来理解它的运行方式和设计原理。比如说,人类认知的局限性限制了当前市场的设计,而AI主体组成的系统可能会出现更复杂的交互环境,更快的计算速度以及更大的计算量,这些问题都非常值得人们关注。

与此同时,人工智能的行为方式与人的行为方式的偏差也会带来新的挑战。在未来,我们将见到这样的景象:简易的人工智能机器人在亚马逊网站上给书籍定价,在opentable(餐厅预约的一款APP)给餐厅的座位定价(6)。虽然这些行为可以提高效率,但是由于AI机器人缺乏常识,以及设计者设计存在缺陷,一本书可能会被定价到2300万美元(7)。在未来,有关AI的复杂政策,更加严格的审查制度会对金融市场产生巨大影响;自动交易算法将会出现在美国股票市场70%以上的交易中(8)。考虑到这些情况,深入理解无处不在的AI主体在经济体系中的表现显得尤为重要。由于我们的推理已经从人转变为AI,而这些AI是为了帮助我们获取人类偏好、消除人类决策偏差,以及在复杂的环境中权衡成本和收益而设计的,所以我们必须思考改变我们赖以生存的经济机构和组织,以应对这种转变。

在“机器经济人”已然浮出水面之际,我们将关注经济学和AI交叉领域中的一些最重要的研究方向。我们将简要提及AI应用如何解决经济学上的一些常见的问题,比如匹配问题(9),市场清算问题(10)和智能电网的建模问题(11)。我们也会展示AI是如何在现实中应用经济学理论的:比如多主体学习过程的博弈方法(12),以及多主体系统的投票表决程序(13)。




1.


   

构建“机器经济人”



构建理性的AI提出了一系列技术挑战,这些挑战在以往任何社会科学的理性主义建模中都没有提及。对经济学而言,主体态度(例如,信念和偏好)背后的理性是一种概念性的抽象。经济学家不必解释如何编码主体的“能力”和“偏好”,也不必说明主体的规划与行动算法,这些算法应该在以其认知基础为条件来执行的。

尽管许多AI架构确实直接以命题、目标等类似概念进行表征,但这并不意味着AI设计需要直接引入基于理性构造的数据结构。这样的表示可以简化AI系统的分析——例如,我们可以询问一个在具有稳健性的逻辑表达式上工作的推断算法是否能够保证所有结论都遵循前提。同样,如果AI的信念被编码为概率分布,那么我们可以询问它是否会根据贝叶斯理论和观察到的正确信息来更新其“信念”。然而,我们必须小心我们对主体态度的理解只是建立在其内部数据结构方面。决策中的缺陷或许意味着计算主体所持有的“信念”、追求的“目标”实质上与它们的直接编码存在着系统性差异。

为了说明这种差异,让我们来看一个例子,即机器学习研究人员从动物学习中借鉴的“奖励成形”(reward shaping)概念(14)。在强化学习中,主体会根据回报(对主体所在状态和行动的瞬时估值)来得到一个策略函数(从感知序列到行动的映射)。一个设计者在明确了输入奖励的情况下,可以通过在学习过程中塑形奖励信号来更好地向设计者的最优目标收敛,从而更有效地训练主体。最优奖励框架(15)可以为我们提供一般的区分奖励规范和设计者目标的解决方案。如图1所示,对主体输入的最佳报酬通常与设计者的理想报酬不一致。这个视角有助于解释内在动机(如:好奇心)对一个灵活学习的主体所起到的作用。


图1: 一个受限的强化学习主体在一个刻意设计的而非客观的回报函数(它实际的回报函数)指导下可以表现得更好。左图展示了一个网格世界追逃(右)模型的表现曲线,其中主体的视野受到了各种限制(84)。除非主体是完美理性的(视野不受限制,但这在实际中不太可能),否则设计者通常可以通过让主体直接优化一个替代的估值函数从而实现更好的表现。

虽然并不是所有AI研究人员都采用设计“机器经济人”的方式(特别是明确地使用这些术语)来解决问题,但在过去几十年的时间里,许多AI的进展都可以被理解为是让理性可操作化(operationalizing rationality)的进展。例如,30年前的AI在很大程度上避免使用概率推理,但现在却已经非常普遍,这是由于贝叶斯网络和相关的基于概率图的形式框架得到了大力发展。现在的概率建模语言已经可以支持一般关系的不确定性表达,这就超出了单纯用命题做表达的限制(16)。统计方法目前已经主导了机器学习和自然语言处理(17,18)领域。同样,对于偏好的处理(包括从AI主体设计者那里显示地获取偏好;紧凑地表达在复杂情形下的偏好,并让基于偏好的推理可执行)也已经被视为AI的标准配置。“规划”,即AI的一个子学科,研究在时间之上的行动,现在通常被形式化为一种在受限资源,存在多个目标,以及动作具有概率效应的情况下的优化问题。

AI会成功地开发出理想的理性主体吗?尽管我们努力创造“机器经济人”,绝对完美的理性在有限的计算资源下还是不可能实现的。更重要的问题是AI主体是否会与理想情况足够接近呢?现在的发展的确已经如此了,至少在有限的意义上是。每当我们对我们的机器进行拟人化描述时,我们基本上就在将它们视为理性的人,并根据它们的知识、目标和意图的模型来回应他们。这个问题的一个更精炼的版本是,形式化的理性理论将会非常好地适用于绝对语境下的AI主体行为,或将之与应用到人类身上的情况进行比较。尽管我们对理性理论能够多好地刻画人类行为还没有搞清楚,但具有讽刺意味的是,我们注意到,社会科学理论可能会更加忠实于非人类行为。



2.


   

关于其他主体的推理



主体理论化的问题不仅是学术问题。如果我们可以构建一个AI主体,那么我们就可以构建许多个人工主体,而这些AI主体会像人一样对其他AI主体进行推理。对于为逼近“机器经济人”而设计的AI代理而言,它们应该彼此认为都是理性的,这至少可以作为一个基线假设。这些AI主体将采用一种博弈论的视角来看待世界,其中主体对彼此的行为做出理性的反应,这一点也应该被(递归地)假定是合理的。结果是,主体将希望它们的共同决策满足某种均衡,就像在标准的经济学思想中一样。

现在越来越多的AI研究将经济均衡模型应用到涉及多个主体的情境中,在这里AI主体(或AI与人类的组合)被合理地建模为近似理性的。该方法取得了显着的成功,至少在一些特定的环境下存在一些此前提的证据。正如单一主体理性不需要文献中的效用计算一样,均衡模型的适用性也不需要主体自身明确参与均衡推理。例如,关于博弈中的学习(learning in game)的文献(20)已经发现了大量有关简单的适应策略会收敛于策略平衡的条件。我们可以通过检查AI设计师为特定任务构建的主体来评估经济建模的有效性。例如,在一个对购物游戏(21)中相互竞争的AI交易主体的研究中,使用来自经济学的标准价格均衡模型(具体地,瓦尔拉斯均衡Walrasian equilibrium)的主体,在没有使用任何数据的情况下,就实现了与复杂的机器学习方法相当的预测精度。

在本节的其余部分,我们描述了更多例子,其中,以博弈论算法为形式的经济建模为AI主体推理其他主体提供了有效的方法。第一个例子是计算机扑克。虽然扑克仅仅是一种人造的游戏,人们却投入了大量的时间和金钱来玩它以提生自己的技能。更重要的是扑克的不确定性和复杂性使它成为对AI技术的一个重要挑战。早期的研究旨在捕捉专业玩家的知识(22),但在过去的十年中,博弈理论算法占据了主导地位。 从技术上讲,扑克是一个不完美信息博弈,每个玩家都知道他人不知道的历史片段(发给他们的牌)。 随着时间的推移,通过转牌和投注,不确定性部分得到消解,玩家必须更新他们对自己的牌局的信念和对他人的信念。

2014年,计算机扑克取得了重大突破,这就是 “head up limit hold'em”(HULHE)——一个最流行的标准双玩家版本的扑克游戏变种的问题求解被攻克(23)。HULHE是人类已解决的不完全信息游戏中最大的一个(除去对称性后有超过1013个信息集),也是在日常游戏中,第一个被解决的不完全信息游戏。该解决方案是一系列研究者(参见图2)二十年努力的结果,从简化扑克游戏的精确解开始,到完整游戏(24)的抽象版本的大致解决方案。 计算整个游戏的近似纳什均衡需要大量计算和一种基于“遗憾匹配”(regret-matching,诞生于机器学习的一种方法)技术的平衡搜索新方法。结果是我们能够得到一种策略,使用这种策略可以让即使完美的对手也占不到任何便宜。

图2: 从1995年到现在,学者们就在不完美信息博弈问题上持续获得指数方式增长的进展。到了2007年(左),博弈的尺寸通常用博弈树的节点数来衡量的。而在那时,人们用信息集数量(每个都有多个节点)来度量尺寸更合理,信息集是从玩家的角度感受到的各种不同情形。画圆的数据点对应了相同的里程碑;将两个图组合在一起可以展示持续的指数改善。数据来源于文献(23, 35, 85–90)。

一般来说,针对完美对手的最佳策略可能不是理想的策略,而是对于易犯错误的情况更有针对性的策略。然而,尽管研究人员已经尝试了很多,但即使在对手处于均匀分布的情况下,我们仍然没有发现比博弈论解决方案更好的扑克算法。人们也已经证明,即使对那些远没有精确求解的扑克游戏变种而言(如赌注不受限制(25)或三个以上玩家(26),博弈论会比其他方法更成功。

AI中大部分基于博弈论的推理能够成功是因为它能解决现实世界的问题。近年来最突出的应用领域是我们接下来要讲的第二个例子,它基于Tambe等人开发的一系列系统(27)。在这些系统中,主体将通过求解一个博弈问题来决定如何布置安防设施(例如,机场中的安检点),在这些博弈中,袭击者被假设为一个理性的决策者并对防御者的决策制定规划。这种方法已经成功地部署在各种领域,包括机场与航线的安防工作以及海岸警卫队的巡逻。

正如其他的基于博弈论方法一样,这些系统给出的建议极其敏感地依赖于其他智能体(这里是攻击者)的偏好、信念、能力和理性水平。来自人工智能的代表性方法提供了更大的灵活性,这允许我们制定一些假设从而放松那些博弈理论家们所采纳的条件(28)。 行为博弈理论领域已经开发了详细的预测性模型,告诉我们人类是如何对博弈论所规定的理性产生系统性偏差的(29)。这样的预测模型可以被轻松地并入现有的博弈论推理算法中,正如在安全游戏(30)中对攻击者建模所展示的那样。一个有趣的开放性问题是是否能够很好地解释人类决策行为的模型(参见Wright和Leyton-Brown(31))也能有效捕获计算主体的有限理性。




3.


   

设计多主体智能系统



在多主体级别中,设计者不能直接编程AI的行为,而是为AI之间的交互来定义规则和激励。这个想法是通过改变“游戏规则”(例如使某些行为和结果与奖励相关联)来改变智能体的行为以实现全局目标的。系统目标可以包括:促进总价值最大化的资源分配方案,协调行为以按时完成项目或汇集分散信息以形成对未来事件的准确预测。这种改变交互环境的能力是特别的,它能将这种设计与在给定世界中表现良好的AI设计问题区分开。

一个有趣的中间环节是把世界视为给定的,但利用可靠的主体——调解者——它可以与AI们互动并代表雇主执行行动(32)。引入调解者这种做法在新AI经济学中显得很自然。为了领教一下这是多么强大:让我们考虑在经典的囚徒困境博弈中引入协调机制(图3)。如果两个AI都授予中介人参与的权限(即代理权),那么这个主体就可以代表两个主体来执行合作。然而,如果只有一个AI授权中介代理,那么结果就可能代表该主体执行背叛。在均衡中,两个AI都授予代理,效果就是从(背叛,背叛)改变为(合作,合作),即同时增加了两个参与者的效用。

图3: 支付矩阵,每一个矩阵元给出了(行玩家、列玩家)的效用。(A)囚徒困境。战友策略均衡是(背叛,背叛)。(B)协调的囚徒困境。占优策略均衡是(协调者,协调者)

 

对于更一般的理性主体互动规则的设定,经济学里有一套成熟的数学理论:机制设计(mechanism design)(33)。机制设计的框架已经成功应用于例如匹配市场(34)和拍卖(35)的设计之中。机制设计是一种反向的博弈论问题,它可以通过规则诱导博弈和系统的质量评估到达均衡点。在标准模型中,我们会根据主体对结果的偏好来指定设计目标,但这些偏好是私人信息且主体都是利己的。一个机制是一个可信的实体,它能够从主体中接收关于偏好的声明(可能是不真实的)消息,并基于此来选择结果(例如,资源分配或行为规划)。制度设计的最大挑战是如何设计激励手段以促成主体真实地报告自己的偏好。

Varian(36)认为,相对于人类主体来说,机制设计理论实际上可能更适合人造主体,因为AI可以更好地遵守在这个框架中做出的对于理性的理想假设。例如,机制的一个期望属性是“激励相容性”,该属性保证了“真实地表达出自己所需”能够构成均衡。有时甚至可能使“诚实报告”成为一个占优策略(即不管其他人做什么这个策略都是最优的),这样就可实现 “防策略性”(strategy-proofness)的强大特征(37)。然而,似乎人们不能可靠地理解这种性能;来自医疗匹配市场和实验室实验的证据表明,一些参与者在防策略的匹配机制中试图错误地表达他们自己的偏好,即使这样做没有任何好处(38,39)。

相比之下,对于人工系统我们可能期望AI的行为是真实的,同时避免消耗大量关于他人行为推理的计算,因为这是没用的(5)。更一般地,AI系统的机制设计不需要简单,因为它们不需要让人类理解。相反,诸如偏好表示、偏好诱导和搜索算法这样的AI技术可以用于将机制设计的数学形式化框架转为具体的计算方法(40-42)。设计问题本身也可以有效地表达为一个计算问题,其中最优化方法和机器学习可以用于无法解析求解的设计问题 (43–46)。

AI经济的发展前景也激发了机制设计的新扩展。考虑到未来的不确定性以及由于局部环境的变化而导致的主体偏好的变化等因素(47-49),研究者们已经发展出了相容的多周期激励机制。另一个方向考虑了除偏好信息以外的一种新的私有输入信息(50,51)。例如,在团队建设的情境中,每个AI可能错误地报告关于其他AI的能力信息,以便使自己被选择进团队(52)。类似地,AI在寻求任务分配最大化时可能提供假的工作效能报告,以误导学习机制构建的自动任务分类器(53)。AI的系统也可对机制设计造成新的挑战。一个典型例子是假名投标,其中AI利用的是其可以管理多个身份的能力。例如,它可以通过将一个请求分成一组小请求,每个小请求安置在其控制下的不同身份来获得资源。 作为应对措施,研究人员已经开发出对这种新型攻击具有鲁棒性的机制(54)。

实践中存在着一些案例,其中机制设计在AI经济中起到了重要作用。在一定搜索请求条件下,搜索引擎通过拍卖的方式分配广告位。广告主为了让他们的广告出现在特定的查询中(例如“人身伤害律师”)而出价。系统会根据出价金额(以及其他因素,例如广告质量)来对各种广告进行排名,其中排名较高的广告会出现在搜索结果页更高的位置上。早期拍卖机制采用一级价格序贯拍卖(first order bidding)规则,系统会在广告收到点击时向广告客户收取其出价金额。认识到这一点,广告商就会使用AI来监控感兴趣的查询,从而在保持当前位置的条件下能够用尽可能低的价格竞价。这种做法导致了一连串的投标战争,从而导致了计算力的浪费和市场效率的低下(55)。为了克服这一点,搜索引擎引入了二级价格序贯拍卖(second order bidding)机制(37),其对广告商的收费是第二高的出价而不是竞标胜者自己的价格。这种方法(机制设计中的一个标准想法)就使得人们不必不断地监控价格以获得最佳价格定位,从而阻止了投标大战(56)。

近年来,搜索引擎竞价已经开始支持更丰富的,基于目标的出价语言。例如,广告客户可能要求在受预算约束的情况下对一组加权的查询主题来最大化点击(57,58)。搜索引擎可以提供代理主体,来代表广告客户出价以实现所述目标(59)。代理主体的的引入以及早期从一级价格拍卖到二级价格拍卖的转换本质上就是信息揭示原理(60-62)的计算应用,这是机制设计理论中的一个基本概念。简单地说,如果一个机制的规则和该机制的均衡策略被一个在功能上等同的新机制取代,那么这个新机制将是激励相容的。虽然在形式上说重新设计没有专门地考虑激励相容性,但二级价格拍卖和投标代理都可以看作为早期版本中的广告主的行为(通过AI)(见图4)。另外,广告平台还可以设计一种策略防范(strategy)机制[Vickrey-Clarke-Groves机制(37,63,64)]来决定广告空间分配:哪些广告被分配,哪些(非赞助的)内容陈列给用户(65)。图4.两代赞助搜索机制。早期的设计是一级价格拍卖(FP),广告商(ADV)使用AI(AI-POS)以最低的可能价格在搜索结果列表上保持位置。引入二级价格(SP)拍卖机制,旨在取代FP和AI-POS的组合。 广告商采用了新的AI(AI-GOAL),以实现更高级的目标,例如最大化利润或最大化点击次数。二级价格拍卖被扩展到包括智能代理(SP +Proxy)中,旨在取代组合 SP和AI-GOAL。

今天金融市场也显著地具备自动化主体和交互规则设计的特征。今天的市场是一个以电脑化交易为主导的市场,这些电子账户已经从定性上改变了市场行为。虽然很多细节还处于保密中,但据悉AI和机器学习技术被大量地应用在算法交易者设计与分析中(66)。算法交易使那些有速度优势的策略得以快速采用,同时也导致了昂贵的军备竞赛,以应对市场信息的最小延迟。人们将用周期性的拍卖,即每一秒清空所有订单一次来取代连续时间周期,从而就可以避免微小的速度提升优势。(67,68)。

我们举两个AI经济中多主体系统设计的例子。第一个示例系统能够整合多个AI持有的信息。我们可以通过预测市场来有目的地设计系统规则以实现这一目标(69)。 比较为人熟知的版本包括对美国总统竞选(例如,Betfair提供许多这样的市场)进行预测的市场。 预测市场的基本思想就是用证券合约交易来预测(例如,一个可能的合约是如果希拉里·克林顿当选,将支付1美元)。 当供给和需求平衡之后,最终价格就被解释为市场预测(例如,价格$ 0.60反映了支付事件的概率为0.6)。

让我们考虑一个大量的相互关联的随机变量池,例如,“BA214航班延迟超过1小时”,“波士顿的暴风雪”,“除冰机坏了”,“BA215航班延迟超过 1小时”和“伦敦的安全警报”。在组合预测市场(70)中,合同“除冰机坏了”的大赌注将影响 “BA215航班延迟超过 1小时”和其他所有相关联的事件。 这里的挑战是可能的事件数量会随随机变量的数量呈指数增长。 除此之外,良好的市场设计还应能够让AI对所有事件下注(例如,“除冰机故障以及从波士顿延迟超过1小时的所有后续航班”)。良好的设计还应该使激励相一致—— 例如,使其效用最大化来实现对当前信息的立即交易,直到市场价格能反映代理的信念。最近在扩大组合市场方面取得的进展可以将定价赌注与众所周知的统计推理和凸优化问题(71,72)相关联。相关研究的进展还包括假设AI可以通过机器学习以及直接在信息信号而不是信念中进行交易(73-75)。

第二个例子是AI经济体内的主体的可信赖度信息管理的例子。对交易伙伴的信任对于任何运作良好的经济体系都至关重要。以前标准的做法是将参与者与他的声誉相关联,这可以权衡当前受损的声誉和未来丢失的机会,从而调整激励手段。除了这个道德风险的问题以外(即,当完成经济交易时,主体将进行合作),信誉系统还可以解决逆向选择的问题(即,高质量主体选择首先进入市场)(76,77)。

在AI经济中的一个特殊挑战是身份的流动性和主体可以被轻易替换的问题。这引起了诸如“粉饰攻击的幽灵(specter of whitewashing attacks)”这样的问题,其中AI在以不同的身份重新进入系统,这样它就可以在重新进入系统之前任意地挥霍它的声誉。在没有强制性的不能更改的身份制度的情况下,这种流动性身份耗费了大量的社会成本,这种成本就使得我们必须将惩罚也均摊到所有新参与者身上,并让它们在不可信的假设中建立声誉(78)。

我们还应该考虑到,“机器经济人”对于那些将反馈信息分享给其他AI系统分享反馈意见方面具有战略意义。例如,在eBay的原始报价系统中,买家通常不愿对失业卖家留下负面反馈,因为卖家可能进行报复。作为回应,eBay引入了一种从买方到卖方的单向反馈机制使得从卖方追溯到特定买方非常困难。这种变化导致了更大量的负反馈(79)。

AI经济也为全新的声誉机制(见图5)中进行反馈信息收藏、反馈来源追踪提供了很好的机会。AI研究人员正在设计声誉系统,使激励与制作真实报告一致,同时也可证明它满足一些公理性质,例如对称性:从报告的角度来说两个同等位置的主体应该具有相同的信任得分(80,81)。另一个例子是会计系统的设计,它可以诱导出关于其他AI在资源贡献或工作表现上的真实报告,并使系统的设计能够减少搭便车现象并促进对经济体系的公平贡献(82)。然而,可完全通过计算基础设施(如信誉机制)的开发,而无需求助于法律系统,来设计有效的多主体AI系统仍然是一个有趣的开放性问题。

图5: 在多主体AI的声誉系统中,每个主体可以选择一个行动,这些行动的组合效果生成了回报(即效用)。基于行动和收到的回报,主体i可以提交一个报告xi给声望系统。声誉系统将这些反馈聚合到一起——例如,提供一个排序列表来反映主体们可信度的估计。每个主体都可以看到这个排序列表,这个信息又可以影响到未来的行动。

 



结论


   



不论人们对于AI是否或何时能够超过人类表现的观点有不同的看法,AI的快速发展正在激发对于其相关研究的极大的乐观情绪和投入。AI已经或者预计很快将在诸多窄领域内超越人类,比如下象棋、控制大型喷气式客机巡航、在电子商务平台上做商品推荐和为成千上万的商品做定价、判断病人是否可能再次住院,以及从信息量巨大的财经新闻中提取重要讯息。

当然,在这个发展过程中仍然存在很多根本性的挑战。这些挑战包括如何设计论证和推理方法,来有效平衡计算量带来的收益和运行中从延时到真实世界执行过程中所产生的可能成本;以及如何设计在信赖域中通过增强信号来学习和归纳的AI系统。尽管经济交易层面的决策问题都相对容易处理,但我们相信飞速发展的AI很有可能将在重要经济应用领域做出巨大贡献。这又进一步促进了对理性的经济推理方法,进而以实现“机器经济人”的愿景为目标的研究。

我们不应认为AI研究者们已经在单智能体或多智能体AI经济学展望上达成了全体共识。对于有些研究者来说,考虑多智能体的经济学模型仍然被视为一种干扰噪音。毕竟集中化的视角可以使系统更好的专注于目标达成,而不用担心对系统中每个个体成员的激励。还有一些研究者的工作针对的是受设计者控制的单智能体组成的多智能体系统,在这种系统中设计者可以用任意需要的方式编程单智能体。就像集中化解决方案一样,这种所谓的“协同”多智能体系统的设计可以不用考虑每个智能体的个体利益,尽管该系统经常遇到分解或沟通方面的问题。不过,协同或是自利的分歧其实是在对设计者权力的假设上的不同,而不是技术层面上的争论。我们所采纳的观点认为大量的AI系统将会像人类经济系统那样,由有着无数不同设计者、拥有者和操纵者的智能体所组成,每一个智能体的目标可能都各不相同。最后,有的研究者单纯从物理和计算限制的角度出发,反对基于“AI还远没有达到完全理性”假设的经济学方法。因为针对AI计算行为的更为直接的模型,从自动机理论的角度,是可以发展的更为精确的。对于AI理性抽象的分析效用终究是经验主义上的问题,有待在AI发展进程中解决。

在采取了经济学方法的研究者中间,也存在着一些具体技术层面上的争议- 比如均衡推理的作用。即便智能体可以被看作理性的,仍有研究者质疑是否应该使它们达到均衡结构,尤其是在多种均衡共存的情况下。正如Shoham (83)所论证的,博弈论缺乏具体推理层面的务实及广为接受的方法说明。对此有一种积极的观点认为,AI研究者在将经济推理操作化的时候恰恰正在发展出这一套欠缺的实用机制。

还有一些人可能会认为,机制设计,即便其对象是AI系统,也过于理想化了,还有比如其对均衡行为设计的坚持,对交互规则可以从无到有进行设计的预设,以及其对AI系统运行的人文和法律背景的细节忽略等大量问题。对此,积极的观点认为AI系统恰好提供了我们建立新交互规则所需要的空白,因为这些规则将可以通过互联网和电脑服务器上程序的运行来实现。而这些运行规则的实现既是公共政策问题,也是科学工程问题。

我们相信,随着AI 的发展,经济理性将在单智能体和多智能体设计领域发挥重要作用,同时我们认为伴随着AI经济的持续涌现,需要发展出一种新的科学来理解如何设计这些系统。这些AI系统无疑将在经济和更广阔的社会领域产生重大影响,对这些影响的效果和程度的研究将是未来数年来AI和经济研究领域的重要主题。



新一代技术+商业操作系统:

AI-CPS OS

新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能)分支用来的今天,企业领导者必须了解如何将“技术”全面渗入整个公司、产品等“商业”场景中,利用AI-CPS OS形成数字化+智能化力量,实现行业的重新布局、企业的重新构建和自我的焕然新生。


AI-CPS OS的真正价值并不来自构成技术或功能,而是要以一种传递独特竞争优势的方式将自动化+信息化、智造+产品+服务数据+分析一体化,这种整合方式能够释放新的业务和运营模式。如果不能实现跨功能的更大规模融合,没有颠覆现状的意愿,这些将不可能实现。


领导者无法依靠某种单一战略方法来应对多维度的数字化变革。面对新一代技术+商业操作系统AI-CPS OS颠覆性的数字化+智能化力量,领导者必须在行业、企业与个人这三个层面都保持领先地位:

  1. 重新行业布局:你的世界观要怎样改变才算足够?你必须对行业典范进行怎样的反思?

  2. 重新构建企业:你的企业需要做出什么样的变化?你准备如何重新定义你的公司?

  3. 重新打造自己:你需要成为怎样的人?要重塑自己并在数字化+智能化时代保有领先地位,你必须如何去做?

AI-CPS OS是数字化智能化创新平台,设计思路是将大数据、物联网、区块链和人工智能等无缝整合在云端,可以帮助企业将创新成果融入自身业务体系,实现各个前沿技术在云端的优势协同。AI-CPS OS形成的字化+智能化力量与行业、企业及个人三个层面的交叉,形成了领导力模式,使数字化融入到领导者所在企业与领导方式的核心位置:

  1. 精细种力量能够使人在更加真实、细致的层面观察与感知现实世界和数字化世界正在发生的一切,进而理解和更加精细地进行产品个性化控制、微观业务场景事件和结果控制。

  2. 智能:模型随着时间(数据)的变化而变化,整个系统就具备了智能(自学习)的能力。

  3. 高效:企业需要建立实时或者准实时的数据采集传输、模型预测和响应决策能力,这样智能就从批量性、阶段性的行为变成一个可以实时触达的行为。

  4. 不确定性:数字化变更颠覆和改变了领导者曾经仰仗的思维方式、结构和实践经验,其结果就是形成了复合不确定性这种颠覆性力量。主要的不确定性蕴含于三个领域:技术、文化、制度。

  5. 边界模糊:数字世界与现实世界的不断融合成CPS不仅让人们所知行业的核心产品、经济学定理和可能性都产生了变化,还模糊了不同行业间的界限。这种效应正在向生态系统、企业、客户、产品快速蔓延。

AI-CPS OS形成的数字化+智能化力量通过三个方式激发经济增长:

  1. 创造虚拟劳动力,承担需要适应性和敏捷性的复杂任务,即“智能自动化”,以区别于传统的自动化解决方案;

  2. 对现有劳动力和实物资产进行有利的补充和提升,提高资本效率

  3. 人工智能的普及,将推动多行业的相关创新,开辟崭新的经济增长空间


给决策制定者和商业领袖的建议:

  1. 超越自动化,开启新创新模式:利用具有自主学习和自我控制能力的动态机器智能,为企业创造新商机;

  2. 迎接新一代信息技术,迎接人工智能:无缝整合人类智慧与机器智能,重新

    评估未来的知识和技能类型;

  3. 制定道德规范:切实为人工智能生态系统制定道德准则,并在智能机器的开

    发过程中确定更加明晰的标准和最佳实践;

  4. 重视再分配效应:对人工智能可能带来的冲击做好准备,制定战略帮助面临

    较高失业风险的人群;

  5. 开发数字化+智能化企业所需新能力:员工团队需要积极掌握判断、沟通及想象力和创造力等人类所特有的重要能力。对于中国企业来说,创造兼具包容性和多样性的文化也非常重要。


子曰:“君子和而不同,小人同而不和。”  《论语·子路》云计算、大数据、物联网、区块链和 人工智能,像君子一般融合,一起体现科技就是生产力。


如果说上一次哥伦布地理大发现,拓展的是人类的物理空间。那么这一次地理大发现,拓展的就是人们的数字空间。在数学空间,建立新的商业文明,从而发现新的创富模式,为人类社会带来新的财富空间。云计算,大数据、物联网和区块链,是进入这个数字空间的船,而人工智能就是那船上的帆,哥伦布之帆!


新一代技术+商业操作系统AI-CPS OS作为新一轮产业变革的核心驱动力,将进一步释放历次科技革命和产业变革积蓄的巨大能量,并创造新的强大引擎。重构生产、分配、交换、消费等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生新技术、新产品、新产业、新业态、新模式。引发经济结构重大变革,深刻改变人类生产生活方式和思维模式,实现社会生产力的整体跃升。





产业智能官  AI-CPS



用“新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能),在场景中状态感知-实时分析-自主决策-精准执行-学习提升认知计算机器智能实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链




长按上方二维码关注微信公众号: AI-CPS,更多信息回复:


新技术“云计算”、“大数据”、“物联网”、“区块链”、“人工智能新产业:智能制造”、“智能驾驶”、“智能金融”、“智能城市”、“智能零售新模式:案例分析”、“研究报告”、“商业模式”、“供应链金融”、“财富空间”


点击“阅读原文”,访问AI-CPS OS官网




本文系“产业智能官”(公众号ID:AI-CPS)收集整理,转载请注明出处!



版权声明产业智能官(公众号ID:AI-CPS推荐的文章,除非确实无法确认,我们都会注明作者和来源。部分文章推送时未能与原作者取得联系。若涉及版权问题,烦请原作者联系我们,与您共同协商解决。联系、投稿邮箱:erp_vip@hotmail.com





登录查看更多
1

相关内容

智能体,顾名思义,就是具有智能的实体,英文名是Agent。
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
128+阅读 · 2020年5月14日
《强化学习》简介小册,24页pdf
专知会员服务
263+阅读 · 2020年4月19日
【哈佛《CS50 Python人工智能入门》课程 (2020)】
专知会员服务
109+阅读 · 2020年4月12日
专知会员服务
121+阅读 · 2020年3月26日
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
38+阅读 · 2019年10月16日
IBM长文解读人工智能、机器学习和认知计算
人工智能学家
5+阅读 · 2018年8月26日
AI综述专栏|神经科学启发的人工智能
人工智能前沿讲习班
5+阅读 · 2018年7月11日
国内高校人工智能教育现状如何?
大数据技术
9+阅读 · 2018年4月24日
2018年中国人工智能行业研究报告
艾瑞咨询
3+阅读 · 2018年4月2日
周志华:严肃的研究者就不该去触碰强人工智能
人工智能学家
4+阅读 · 2018年1月28日
【人工智能】人工智能发展——机器学习简史
产业智能官
3+阅读 · 2017年11月6日
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Arxiv
22+阅读 · 2019年11月24日
Object Detection in 20 Years: A Survey
Arxiv
48+阅读 · 2019年5月13日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
4+阅读 · 2018年9月11日
VIP会员
相关资讯
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
38+阅读 · 2019年10月16日
IBM长文解读人工智能、机器学习和认知计算
人工智能学家
5+阅读 · 2018年8月26日
AI综述专栏|神经科学启发的人工智能
人工智能前沿讲习班
5+阅读 · 2018年7月11日
国内高校人工智能教育现状如何?
大数据技术
9+阅读 · 2018年4月24日
2018年中国人工智能行业研究报告
艾瑞咨询
3+阅读 · 2018年4月2日
周志华:严肃的研究者就不该去触碰强人工智能
人工智能学家
4+阅读 · 2018年1月28日
【人工智能】人工智能发展——机器学习简史
产业智能官
3+阅读 · 2017年11月6日
相关论文
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Arxiv
22+阅读 · 2019年11月24日
Object Detection in 20 Years: A Survey
Arxiv
48+阅读 · 2019年5月13日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
4+阅读 · 2018年9月11日
Top
微信扫码咨询专知VIP会员