AI综述专栏 | 机器学习在社会科学中的应用(全文)

2018 年 12 月 6 日 人工智能前沿讲习班

AI综述专栏简介

在科学研究中,从方法论上来讲,都应先见森林,再见树木。当前,人工智能科技迅猛发展,万木争荣,更应系统梳理脉络。为此,我们特别精选国内外优秀的综述论文,开辟“综述”专栏,敬请关注。


我们都希望找到那些彩色的小石子儿

注:机器学习领域的文献日进千里,这篇综述的文献截止时间是今年中能够在网络上检索到的工作论文。此外,这篇论文的重点是介绍那些在社会科学领域已被广泛应用或可能具有较大潜力的机器学习技术,而不是机器学习技术本身的发展前沿。

摘 要:随着数据的可得和计算机软硬件的发展,机器学习技术在业界及自然科学领域已经得到了广泛地应用。在社会科学领域,该技术使用虽然起步较晚,但发展也非常迅速。本文目的旨在系统介绍机器学习在社会科学中的应用。在简单介绍定义,在业界及自然科学领域的应用后,我们将从数据生成、预测以及因果识别(DID,RD和IV)三方面详细介绍机器学习在社会科学中的应用。局限于社科因果识别方法论的成熟及样本量限制,我们认为机器学习虽然拓展了社会科学研究的边界,但并不会颠覆现有研究范式。最后,本文从学界不平等及可复制性等方面讨论了该技术在应用过程中可能带来的问题。

关键词:机器学习   数据生成   预测   因果识别


引    言


机器学习(Machine Learning,简称ML)指的是从数据中识别出规律并以此完成预测、分类及聚类等任务的算法总称。[1] 随着数据的可得及计算机处理能力的提高,该技术在业界及自然科学领域已经得到广泛地应用。在社会科学领域,机器学习的使用虽然起步较晚,但发展也非常迅速。例如,五大经济学英文顶尖期刊中涉及到机器学习技术的文章数量在2014年之后以每年74.7%的速度递增,2017年的数量达到16篇。中文经济学权威期刊也有类似的趋势。[2] 本文写作目的旨在系统介绍机器学习技术在社会科学中的应用。我们首先在第二部分给出机器学习技术的定义,然后在第三和第四部分简要介绍该技术在业界及自然科学领域的应用。本文的重点在第五部分,在其中我们将从数据生成、预测以及因果识别三方面介绍机器学习在社会科学中的应用。就数据生成来说,机器学习技术可以帮助学者获得以前很难或无法获得的数据,进而对一些更具挑战性的假设进行检验;就预测来说,机器学习可以更有效地探索变量间的相关性,进而做出较为精准的预测。在这部分,我们将用公式表达的方式详细比较机器学习技术和传统基于回归方法在预测方面的异同;最后,由于机器学习在预测方面的优势,它可以被用来预测反事实进而获得因果效应。我们认为机器学习技术在上述方面的优势使其可以和社会科学现有分析工具结合,检验之前无法用传统方法检验的假设,最终会拓展现有社会科学研究的边界。同时,我们也应该对其带来的问题保持清醒认识,这些问题包括研究可复制性、过分依赖大数据及可能加剧学界不平等。本文最后一部分将对这些问题展开初步讨论。


一、机器学习简介


机器学习是指从数据中识别出规律并以此完成预测、分类及聚类的算法总称 (Athey, forthcoming)。[3] 在操作中,机器学习方法可以根据被解释变量是否已知被分成监督(Supervised Learning)和非监督学习(Unsupervised Learning)。监督学习是指被解释变量已知的机器学习。我们用x表示解释变量,y表示被解释变量,那么监督学习首先依据已有样本数据建立y=f(x)的函数关系。随后,当要预测解释变量为x'时被解释变量的取值时,只需将x'带入到等式右边即可获得预测值;非监督学习是指被解释变量未知的学习方式。换句话说,算法只知道解释变量x的取值。在这种学习方式下,算法会分析x的内部结构,然后根据相似性把数据聚类(Cluster)。[4] 以垃圾邮件分类为例,在监督学习下,我们告诉计算机样本中哪些是垃圾邮件哪些是正常邮件。基于该信息,算法会找出邮件内容与类别间的规律并完成对未来邮件的分类。在非监督学习下,算法并不知道某一封邮件是垃圾邮件还是正常邮件。[5] 此时,算法依照邮件文本结构与相似度等指标把邮件归类。在整个过程中,算法只完成归类的工作,定义哪一类是垃圾邮件依然依赖于人工。

在实际研究中,学者一般根据被解释变量是否可得来选择使用监督还是非监督学习。比方说我们想回答某项政策能否提高民众幸福感。如果研究者能定期走访调查并建立覆盖政策前后时期的幸福感指数的话,作为被解释变量的幸福感就是已知的。这种情况下就可以选择监督学习。当然在该数据不可得时,学者也可以从互联网上搜集网民留言并分析其幸福程度。采用人力对浩如烟海的留言进行打分显然不切实际,此时可以借助非监督学习技术:让机器自动将留言分成幸福和不幸福两类以供后续研究。[6]


二、机器学习在业界的应用


个体、企业及社会组织的生活及运转都会产生海量数据。针对这些数据有目的搜集及高性能计算机技术的进步使得机器学习在业界的应用成为可能 (McKinsey Global Institute, 2016)。机器学习技术相关产业在最近几年得到快速发展。全世界人工智能领域的风投已经从2012年的不到6亿美元提高到2016年的50多亿美元 (CBINSIGHTS, 2017)。本文对机器学习在业界应用的划分根据McKinsey & Company (2017) 的行业报告,分为认知(Cognition)、预测(Prediction)、决策(Decision)和集成解决方案(Integrated Solution)四大类。

认知是指利用计算机收集并解释文字、图像及语音等数据信息。很多公司已经利用机器学习技术对诸如互联网信息等海量数据进行数据挖掘及分析。比如,成立于2007年的Cirmson Hexagon,其主营业务就是利用人工智能技术抓取各大社交平台上顾客对客户公司产品评价及照片,然后对其进行分析进而帮助客户提高产品吸引力、识别目标受众及找出潜在竞争对手。[7] 除了文本和图片,也有公司利用机器学习进行语音信息认知。科大讯飞就是该领域非常成功的公司之一。该公司目前已经能够将语音识别整合到手机端输入法中,在语音识别的同时将其转化成文本进而提高用户输入体验。[8]

对各类信息所进行的认知分析为预测提供了基础,预测是目前机器学期在业界最为广泛的应用。精准的预测能够让企业更加了解顾客偏好,改进产品并精准投放广告。这方面知名的公司包括亚马逊和淘宝。基于顾客浏览、搜索及购买等历史数据分析,机器学习预测能够让这些公司在客户端进行精准的商品推荐和广告投放。类似技术也应用到视频提供商上,比如Netflix就根据用户历史观影内容来预测偏好,推荐其支付意愿最高的电影 (McKinsey Global Institute, 2016)。

这些预测结果进一步为决策提供可能。以金融业Wealthfront公司为例,该公司首先通过人工智能技术预测出各种投资的潜在风险及回报率,随后再结合客户资金量和风险偏好为其提供最佳投资决策参考。[9] 另一个非常知名的业界决策案例是谷歌公司的Alpha Go。该方案利用深度神经网络(Deep Neural Networks)和树搜索(Advanced Tree Search)技术预测并决策出下一步棋的落子 (David Silveret al., 2016)。

最后,将上述各个方面应用整合并结合硬件以实现特定目标就是所谓的集成解决方案。在该领域领先的企业包括谷歌和亚马逊。谷歌旗下的无人驾驶汽车公司Waymo通过安装在车辆上的传感器及车载电脑对路况、信号灯、路牌及行人等信息进行认知,基于这些信息预测出下一时间道路状况并作出加速或刹车等相关决策。[10] 亚马逊的集成解决方案主要在智能家居领域,将人工智能语音助手Alexa集成在音箱中,实现语音操控各种家具并安排日程等诸多高阶功能。[11]


三、机器学习在自然科学中的应用


和社会科学相比,自然科学的数据可得性相对较高,因此较早开展相关技术的应用。本部分以物理学和医学为例,简单介绍机器学习在这两个学科中的应用现状。

(一)物理学

机器学习在物理学的运用发展较快,这主要得益于机器学习在数据的分类及降维上具有的优势。下面内容将从高能物理和凝聚态物理两个领域简要阐述这些优势。

在高能物理中,粒子对撞是发现新粒子的有效方法之一。但分析对撞的实验数据涉及到非常复杂的粒子分类问题(Signal-versus-background):判断传感器接收到的信号是待发现新粒子产生的(Signal)还是已知粒子所产生的(Background)。因此我们需要计算出那些仅由已知粒子所产生的信号是怎样的,然后再与实验测得信号进行对比。如果两者存在显著统计差异就能够判定是出现了未知粒子。物理学家通常采用蒙特卡洛(Monte Carlo)方法计算上述信号,而该方法会产生高维数据:解释变量数目很多,甚至超过样本容量 (Baldi et al., 2014)。 其原因在于计算信号用到的解释变量是碰撞前粒子的信息,其中包括粒子间相互作用。目前最大的大型强子对撞机(Large Hadron Collider, LHC)一次碰撞会用到10^11个质子,因此考虑粒子间相互作用势必导致数据维度非常庞大。而机器学习有一套成熟的变量选择方法(Feature Selection)对高维数据进行降维。算法一般从众多解释变量中挑选一部分进行运算并评估其计算结果。如果结果精度不高,那么就再挑选另一部分解释变量并重复上述操作,直至算法表现达到期望精度为止。[12] 借助此类降维算法,Baldi et al. (2015) 把机器学习运用在希格斯粒子发现的实验中,在给定数据量下提高了估计值的置信水平。

机器学习在物理上的另一大应用是研究凝聚态物理,这个领域旨在分析物质的微观组成和宏观性质间的联系。研究物质的微观组成和结构必然会涉及到分析微观粒子间的相互作用。但问题在于物质是由大量微粒组成的,任意两个粒子间的作用都需要被纳入考量。这意味着方程规模将特别大,就会遇到类似于经济学中一般均衡的求解问题:要考虑任意一个消费者对任意一件商品的需求,也要考虑任一厂商对任一商品的供给。由于方程组数目巨大,传统方法难以获得解析解。经济学家通常进行数值求解,物理学家解决该问题也采用类似方法。然而在利用计算机求解过程中也会产生高维数据,原因正是上文所提的方程规模过大。如果采用经典方法计算,结果很可能不收敛以致于无法获得数值解 (Kohn, 1999)。对此,机器学习同样通过降维方法获得满意数值解。基于这些优点,近期已有很多物理学家引入诸如神经网络(Neural Network)技术来进行凝聚态物理研究,成功地从高维数据中找出了影响物质宏观性质的序参量(Order Parameter)(Carrasquilla and Melko, 2017; Wang, 2016; van Nieuwenburg et al., 2017)。

(二)医学

机器学习在医学中的运用主要集中在生物医学数据及图像的分析及识别上。下文将以脑神经电信号和肿瘤基因信息分类及肠道断肠扫描图像识别这两个案例,对其应用进行简单归纳。

人脑皮层约有10^10个神经元且活跃程度也彼此不同,其释放的神经电信号是较为典型的大数据。对这些电信号的解读能够让医生了解脑部活动与肢体运动间的联系,该联系对瘫痪患者康复极为重要:当患者大脑无法指挥肢体时,如果能够读懂患者神经信号对应的肢体动作,医生就可以对这个动作涉及到的肌肉进行电刺激使其完成动作。问题在于神经信号太过复杂,过去的统计技术无法理清如此大量的数据与肢体动作间的联系。Bouton等人利用了机器学习技术试图建立了这一联系,该成果成功地让一名瘫痪患者恢复手臂运动功能 (Bouton et al., 2016)。这名患者由于脊椎受伤,神经信号无法传递到手臂上。于是研究者利用电脑取代脊柱将脑神经和手臂连在一起,将神经信号“传递”到手上。为此,研究者在患者脑部植入电极以读取神经信号,并要求患者在脑中想象规定的手臂动作。随后研究者利用支持向量机(Support Vector Machine, SVM)方法建立神经信号数据和假象动作之间的关联。此后若是电脑读取到某个脑皮层信号,就可以根据已经建立起来的关系找到对应的动作,然后再所需肌肉进行刺激以完成对应动作。

另一类医学大数据是肿瘤基因信息。如果医生可以根据基因突变的发生位置将肿瘤划分为不同类别以施加不同方案和强度的治疗,所获疗效就更加显著。但人类的2.5万个基因由30亿对碱基对构成,找到病变发生具体位置涉及到大数据的分析和解读。科学家们已经尝试用机器学习技术对肿瘤基因信息进行细分分类,从而对症下药提高疗效 (Alizadeh et al., 2000; Shipp et al., 2002; Ye et al., 2003)。

除了医学数据的处理,机器学习的另一重要运用是识别X光片、造影及断层扫描图等医学图像。传统上,医生根据经验来判断图像中是否存在病变。这种方法的准确性受限于医生的经验。这就为机器学习的使用提供了机会。Halligan et al. (2006) 比较了人工智能和医生在诊断肠道息肉的正确率差别,发现机器学习技术在识别肠道CT图像的速度及准确率都强于人类。 类似应用还包括让计算机辅助人类识别乳房相关病变 (Gilbert et al., 2008; Lehman et al., 2015; Obermeyer and Emanuel, 2016)。


四、机器学习在社会科学中的应用


本文把目前机器学习技术在社会科学研究中的应用分成三类:第一,数据生成(Data Generating Process):机器学习可以帮助学者获得以前很难或无法获得的数据;第二,预测(Prediction):机器学习可以更有效地探索变量之间的相关性,进而做出较为精准的预测;第三,因果识别(Causal Inference):社会科学、特别是经济学实证研究的核心是因果识别,而机器学习在这方面也具有一定优势。

值得注意的是,本文与Athey (forthcoming) 综述性文章并不相同, 主要体现在以下两点:第一,务实性。Athey将机器学习在社会科学中的影响分为政策评估和因果推论两部分,这对应于本文第二和第三类应用。但我们认为最普遍也是最重要的应用是数据生成。据我们统计,目前社会科学中关于机器学习技术应用超过90%都是利用该技术的海量数据处理能力生成新数据或者变量。但该应用可能被Athey认为过于基础而没有在她的文章中提及。Athey详细讨论的是机器学习在因果推论中的最新进展。通过综述,我们发现这方面的应用在当前的实证研究中极其有限。本文侧重介绍其方法论基础,特别是机器学习如何与因果识别的传统方法比如DID、RD及IV的结合。因此,本文针对机器学习应用的分类更加贴近实际;第二,公式推导及受众。在预测和因果推论部分,我们使用详细的公式推导方法比较了传统线性拟合和机器学习预测间的差异,最终将差异直观地展示出来以利于一般读者理解,Athey没有采用类似方式。我们认为本文的潜在读者群更加广泛,适用于不具备机器学习专业知识的社会科学研究者。

(一)数据生成

传统社会科学实证研究基于的数据大都来自官方、问卷调查、实地调查、田野或实验室实验。最新一些研究试图利用机器学习技术拓展数据可得性。通过机器学习获得数据的主要方式是文本挖据及图像识别。

就文本信息来说,研究者关心的是文本主题。为了在海量文本数据中提取主题,学者一般使用Latent Dirichlet Allocation(LDA)方法。[13] 例如,Hansen et al. (2018) 就利用该方法探究透明度政策如何影响政府内决策过程。 这篇论文的研究背景是美国联邦公开市场委员会(Federal Open Market Committee, FOMC)在1993年通过决议公开了内部会议的发言记录。作者将该项政策视作自然实验以观察委员会成员的发言内容在该年前后的变化。研究基于的文本信息包含5万多次发言,总计500多万个单词,人工检索几乎不可能。作者便利用上文提到的LDA模型,从这些海量文本中提取40个不同的主题(图1)。任意一个成员的每一条发言都可以对应到这些主题中的一个或几个上。每个成员发言中各个主题的占比及成员间发言的相似度等指标就可以被计算出来,作者便可以使用常规OLS检验透明度政策对这些被解释变量的影响了。[14]

图1 机器学习得到的40个主题及每个主题下最可能出现的单词

注:该图来自于Hansen et al. (2018)。 图中每一行代表LDA方法识别出的一个主题(topic0至topic39)。每一行中展示出的12个单词为该主题下最可能出现的单词,自左往右颜色变浅表示该单词出现可能性越小。

类似使用机器学习技术从文本中生成变量研究还有很多。比如Antweiler and Frank (2004) 利用朴素贝叶斯算法(Naive Bayes)将网络上超过150万股民留言分为看涨、看跌及中立三类,然后用每条留言的类别解释股票市场振幅; King et al. (2017) 和Qin et al. (2017) 分别采用自动非参数文本分析(Automated Nonparametric Content Analysis)和支持向量机(Support Vector Machine)技术来识别微博用户或账号的身份。[15]

除了文本,机器学习也可以从图像中提取变量。卫星图像就是一个被经济学家广泛研究的图像信息。[16] 例如,Engstrom et al. (2016) 的研究试图测量一个地区的综合社会福利水平。 在发达国家,研究者可以直接依赖官方数据或者调查数据。但很多落后国家由于没有足够财政维持经济普查机构的运转,其官方经济统计数据并不可得。为此,作者使用卷积神经网络(Convolutional Neural Networks, CNN)来识别卫星图片中建筑物、车辆及道路等固定资产,以此评估这些地区的福利水平。[17] 除卫星遥感照片外,谷歌街景照片(Google Street View)也经常被学者用来研究诸如城市化相关习题 (Glaeser et al., 2018)。 另外一个被广泛研究的图像信息是人像。比如,Edelman et al. (2017) 通过用机器学习技术判别Airbnb上的用户头像性别进而分析租房平台上是否存在性别歧视。 Cao and Chen (2018) 在研究恋爱配对市场中颜值和物质条件发挥作用时,使用机器学习技术对研究对象的面貌进行打分并和人工打分比较。

上述研究主要涉及变量的“绝对”值,机器学习还可以为研究者生成“相对”意义上的变量。比较不同文本相似度是该领域的典型应用。比如,Iaria et al. (2018) 试图研究一战冲击是否会影响跨国学术交流合作。 在这个研究中,解释变量是战争的爆发,被解释变量则是论文的相似程度。作者预期战争会降低论文相似程度,基于如下逻辑:如果两个国家的学者经常交流,那么大家的研究兴趣和方向就会比较相似,这会导致论文成果也具有相似性。战争的爆发使得国家之间进入敌对状态,跨国学术合作被迫中断。这将导致同盟国和协约国各自的论文标题相似度下降。该研究需要解决的关键问题是比较论文间的相似度:样本包含40000篇论文。作者采用基于机器学习的语义分析(Latent Semantic Analysis)来比较两两论文标题间的相似程度,实现了人工不大可能完成的工作(图2)。折线代表敌对阵营间论文标题的相似度。可以非常明显的看到,相似度在一战爆发后显著下降,证实了作者上述猜想。

图2 来自不同阵营的论文相似度

注: 本图来自于Iaria et al. (2018) 的论文。 图中纵轴表示两个敌对国之间的论文相似度,横轴表示论文出版年份,黑色竖线为1914年一战爆发。同上文猜想一样,敌对国之间的论文相似度在一战爆发后极速下降。图中相似度为负是因为作者选取的对照组为本国与本国内部论文的相似度,详细讨论见原文。

其他利用文本相似度进行研究的文献包括Bleakley and Ferrie (2016) 的研究以及Hoberg and Phillips (2016) 的研究等。Bleakley and Ferrie (2016) 试图研究财富增加能否增加对后代的教育投资。 由于普查数据来自多个年份,造成了部分父辈与子辈无法匹配(比如女子婚后改变姓氏)。作者使用机器学习技术并结合其他个人信息预测来自两个样本的不同个体是不是父子或父女关系以解决该问题。Hoberg and Phillips (2016) 则研究了911事件如何影响军火企业。 由于美国传统行业划分是不随时变化的,这就导致了那些由于这一事件进入或退出军火行业的企业无法被识别出来。为解决该问题,作者同样采用机器学习技术:分析公司每年的产品描述文档并根据其相似度划分行业分类。结果发现911事件后进入军火行业的企业数目显著增多。

除了对海量文本进行归类和比较外,机器学习技术还可以测量文字背后的情感。比如,Hills et al. (2016) 试图研究历史上人们的主观幸福指数。 我们可以依靠社会调查数据测量现代社会公众的幸福感。但该方法并不适用于古代。作者采用的策略是利用机器学习计算不同时期出版图书中的幸福感。研究数据来自谷歌图书(Google Books Corpora),该数据库收录了1500年以来将近1000万本书籍。作者首先利用语言学和心理学文献中已有的“幸福感词典”,定义出每一个词所代表的“幸福值”,然后用计算机计算出每一本书的幸福感指数。为了验证该方法可靠性,然后,作者比较了1970年后分别利用该方法(红线)和Eurobarometer社会调查(蓝线)所建立起来的意大利公众幸福指数(图3)。这两个指数之间类似的发展趋势说明了上述方法的可行性。

图3 作者构建的意大利主观幸福指数与Eurobarometer的意大利民调

注:本图来自于Hills et al. (2016) 的研究。 图中红色线为作者通过机器学习读取图书生成的意大利主观幸福指数,数值大小以左侧纵轴来表示;蓝色线为Eurobarometer在意大利进行的生活幸福感调查获得的幸福指数,可以看到两者吻合度很高。

另外一个被学者,特别是政治学者广泛关注的是文本中体现的政治立场。[18] 利用机器学习技术对文本进行立场分析的相关研究包括:从各个党派党章或宣言中推测党派政策立场、通过新闻报纸措辞来判断报纸党派倾向、通过国会发言来测定党派分歧等 (Laver et al., 2003; Gentzkow and Shapiro, 2010; Gentzkow et al., 2016)。[19]

(二)预测

在使用机器学习之前,社会科学研究者主要依赖最小二乘回归(OLS)进行预测。在本小节,我们首先用公式推导的方法比较该领域被广泛使用的Ridge(岭回归)技术和OLS在预测上的差异,并简单评价这两种方法的优劣;其次介绍利用机器学习进行预测的最新文献。

1. OLS与Ridge在预测上的差异

预测的目的在于找出两个变量间的相关关系。假设这两个变量间的真实关系是此处函数关系f客观存在但不为我们所知。无论依赖于机器学习还是计量经济学,研究者的目的都是找到一个与f尽可能接近的函数g,使得该函数估计值能够非常好地吻合真实值y。评价一种预测方法好坏最常用的标准是均方误差(Mean Squared Error, MSE),也就是残差平方的期望,可表述为 (Hastieet al., 2016):(1)当解释变量取值为时,预测值与被解释变量真实值间的差异可被写为:

(2)

通过上式,均方误差被分解为三部分:估计值与真实值间的偏差(Bias)、估计值方差(Variance)及真实值的扰动方差(Noise)。其中,扰动方差完全来自于随机扰动项ε,该部分不会消除且也不会由于预测方法的不同而存在差异。因此,不同预测方法减小均方误差的途径就是在偏差和方差间进行取舍。[20]

下面我们从偏差、方差以及最终均方误差三方面,比较OLS和Ridge在预测方面的差异。为了推导的简洁,假设Y与X的真实函数关系f(x)为线性且解释变量X为正交矩阵:[21](3)OLS的预测函数g(x)可表示为,对式中的估计方法是最小化残差的平方和,表示为:

(4)

此时,的偏差是:

(5)

方差是:

(6)

可知是真实值β的无偏估计量。[22]

由以上可以看出利用OLS进行预测的优点在于估计系数偏差为0,缺点是方差可能较大。换句话说,选择若干个随机样本进行多次回归,无偏性保证所获系数的均值接近于系数的真实值。方差较大则意味着单次回归系数偏离均值较远,可能会异常大或小。当解释变量间存在多重共线性时,这一问题尤为严重。

针对此问题,Ridge在最小化目标函数中引入估计系数平方作为惩罚项,表示为:[23]

(7)

上式在直觉上非常容易理解:OLS的缺点在于方差大,也就是估计系数的上下波动很剧烈。为了防止这种情况,机器学习在最小化过程中通过加入估计系数的平方或绝对值来“抑制”系数大小。如此便可以减小估计系数的方差使得预测更加稳定。这种思路可以理解为对系数大小的一种惩罚:过大则赋予较小权重,过小则相反。LASSO和Ridge的不同就体现在惩罚系数的选取上:Ridge惩罚项为系数的平方而LASSO则是系数的绝对值。[24] 引入惩罚项后,Ridge最小化的目标函数较之OLS更为复杂,而LASSO甚至无法导出估计系数的解析表示,只能求得数值解。操作上,最小化问题往往借助机器学习技术实现。以下将分别比较OLS和Ridge估计系数的偏差、方差和均方误差的大小。首先,根据X是正交阵假设,由式上式可得系数为:

(8)

此时估计系数的偏差是:

(9)

偏差是:

(10)

上两式表明Ridge系数估计是一个有偏估计量,但其方差比OLS要更小。换一句话说,在方差和误差的权衡中,Ridge以有偏为代价换取更小的方差。在获得了OLS和Ridge估计系数的偏差和方差后,我们就能够分别计算两者的均方误差:

(11)


(12)

为了比较两种方法的预测能力,我们将上两式做差:

(13)

若上式取值为正,那么OLS预测误差更大,反之Ridge的误差更大。可以看到,上式实际是一个关于λ的函数,其正负性也依赖于λ的值。现在问题转变为:怎么样的λ会使得上式取正值或者负值?我们先考察该函数极值,如果该函数极大值都小于零,OLS的均方误差将恒小于Ridge;反之,如果该函数的极大值大于零,意味着我们一定能找到λ使得Ridge的均方误差更小。为找到极值,令上式的导数为零,得到一阶条件。将该一阶条件代入,此时。式中分子分母都为正数,因此上式大于零,这意味着Ridge预测能力优于OLS。事实上,Theobald (1974) 证明了将该条件放宽到时,Ridge的均方误差都是小于或等于OLS的。

我们从“无偏性”和“可解释性”两方面评价传统计量经济学方法和机器学习方法在预测方面的优劣。正如本章开头所说,任何预测方法都是在偏差和方差间进行权衡取舍。社会科学实证研究,特别是经济学研究,特别强调因果推论。基于这种考虑,计量经济学回归模型都致力于获得一致的估计系数。这意味着在这一方差–偏差权衡中,计量经济学方法宁愿付出方差较大的代价,也不能放弃无偏这一性质 (Athey, forthcoming)。比方说上面所提到的OLS的估计系数正体现这一思路。而机器学习的目的就是进行预测——它并不在乎用以做出预测的估计系数是否具有无偏性特点。这就意味着在无偏性上,机器学习做出了“让步”:选择用偏差来换取更小的方差以提高预测性能。“可解释性”指的是从模型估计出的结果能够容易地被解释。计量经济学的目的不仅是预测,更在于解释现实中的现象以找到背后规律。从这个意义上来说,用来预测的函数形式越简单越好。因为复杂模型需要廓清模型拟合好坏的原因及解释变量与被解释变量间的互动关系等诸多问题。[25] 机器学习则恰恰相反,只要这个函数能够很好地模拟现实,哪怕函数形式再复杂也无所谓。[26] 在这一点上,机器学习不拘泥于“可解释性”,灵活地选择函数形式进行拟合数据,这使得其预测能力强过了计量经济学传统方法。[27]

2. 机器学习预测在文献中的应用

本小节将从个体和社会方面对现有利用机器学习进行预测的文献中进行简单梳理。

在个体层面上,机器学习可以帮我们更好地预测个人信息、决策或未来行为。此类研究包括Oster (forthcoming)、Kleinberg et al. (2017)、Goel et al. (2016) 及Chalfin et al. (2016) 学者的研究。 Oster (forthcoming) 尝试研究糖尿病患者在确诊后是否会改变饮食结构。由于改变饮食习惯是一件非常痛苦的事,很多糖尿病人都不愿意去节制饮食,以往文献由于缺少数据而无法测度这种“不愿意”的程度。为解决该问题,作者首先基于个体消费记录(Nielsen HomeScan Panel)中的“血糖仪”、“试纸”等关键字,利用随机森林(Random Forest)预测某人是否患糖尿病。[28] 得到预测结果后,再分析该个体在患糖尿病前后的食品消费记录来推断其是否改变饮食习惯。 该文发现患者因为患糖尿病而改变饮食习惯的幅度非常小。Goel et al. (2016) 同样采用随机森林方法预测哪些行人更有可能携带武器;Kleinberg et al. (2017) 则通过梯度提升决策树(Gradient Boosted Decision Trees)预测被保释犯人是否会出席庭审;[29] Chalfin et al. (2016) 采用随机梯度提升(Stochastic Gradient Boosting)决策树来预测警察的工作质量。[30] 作者通过警员入职申请中提及的社会经济状况、婚姻、是否服役等信息,预测其未来工作中是否偏向使用暴力。

相比之下,国内采用机器学习进行预测的相关研究起步较早且大多集中在金融领域,主要集中在对个人或企业的贷款风险信用进行预测方面 (方匡南等,2010;郭英见和吴冲,2009;吕劲松等,2016;马晓君,2015;钱争鸣等,2010;苏治等,2017;徐晓萍和马文杰,2011)。限于篇幅,这里无法做过多展开,读者可参考原文。

在社会经济层面,机器学习能够帮助研究者预测经济指标。比如,Blumenstocket al. (2015) 试图研究发展中国家的财富分布情况。 作者遇到的问题和本文第三部分提到的Engstrom et al. (2017) 的研究类似:落后地区的官方数据质量较差。和Engstrom依赖于卫星图像不同,本文作者认为手机元数据(Mobile Phone Metadata,如通话历史等信息)不光能用来推断手机使用者的财富状况,同时也具有源覆盖范围广、质量高且廉价的优势。作者先收集856人的手机元数据及他们的经济状况,再利用弹性网络(Elastic Net)建立手机数据与经济状况间的函数关系。作者发现该函数关系可以很好的预测财富分布。类似文献还有Glaeser et al. (2017) 的研究,作者试图测量基层的即时经济状况。 由于政府统计报表公布时效性差,作者基于网络平台Yelp数据并通过随机森林来预测时时微观经济活动。[31] 国内学者也尝试通过机器学习完成预测目标,比如刘涛雄和徐晓飞(2015)及孙毅等(2014)研究通过互联网搜索数据分别对GDP及通货膨胀率进行预测。 陈硕和王宣艺(2018)试图利用基层社会经济指标预测GDP。

(三)因果推断

社会科学,尤其是经济学实证研究的核心目标是获得因果推论,以探究干预(Treatment)措施是否导致预期结果并廓清作用发生机制。本部分将讨论机器学习技术在这方面的应用。我们首先基于著名的Neyman-Rubin反事实框架(Neyman-Rubin Counterfactual Framework)给出“因果效应”的定义 (Neyman, 1923; Rubin, 1974);随后结合目前应用微观计量经济学广泛使用的两种因果推论方法:双重差分(Difference-in-Differences, DID)及断点回归(Regression Discontinuity, RD)展示该技术在其中的应用。

1. 因果关系与反事实

我们依然沿用Rubin论文中患者吃药的例子来探究药物能否“导致”疾病被治愈。在现实世界,能够被我们观察到的“药物效果”是那些头痛并吃了药的人的健康状况减去那些健康且没吃药的人的健康状况,用公式表述为:

式(14)中,Y表示个体健康程度,第一个下标为1表示该个体实际吃了药,0表示没有吃药;第二个下标i代表第i个观察对象。取值1或0分别表示该患者是否患有头痛。因此就表示那些头痛且的确吃了药的患者健康程度,则表示健康且没有吃药的人的健康程度。

显而易见,公式(14)并不代表药物的因果作用:那些没吃药的人相对较为健康,与那些因为头痛而吃药的患者不可比。在这种情况下我们无法区分两个群体在吃药后身体状况的差异到底来自于药物效果还是来自于个体差异。真正的效果应该是除了吃药与否外,其他所有因素都一样(ceteris paribus)。换句话说,药物作用应当是同样一群患者(均为1),分别测量没有吃药和吃药后的健康程度的差别,公式表述如下:

公式(15)可以理解为药物作用是吃药的患者健康程度()减去如果他没有吃药时的健康程度()。但遗憾的是,这两者在真实世界中永远无法同时被观察到的。我们把这种无法观察到的情况定义为吃药患者健康程度的“反事实”。虽然公式(15)在真实世界中没有操作性,但这不妨用该公式来重新组织公式(14):

公式(16)可由公式(14)中减掉反事实再加上反事实后获得,这依然是观察到的“因果效应”。但此时公式(16)由两部分组成:第一部分正是药物的真实作用(式15),第二部分是,我们将其定义为选择偏差(Selection Bias)。该部分字面意义是那些有病没吃药的患者的健康程度减去那些没病也没吃药的个体健康程度。显而易见,该选择偏差小于0:有病但没吃药的患者的健康程度当然差于没病也没吃药的个体健康程度。自此,可以知道观察法获得的所谓“因果效应”等于真实因果效应加上一个小于0的选择偏差。换句话说,观察法获得的“因果效应”低估了真实因果效应。[32]

缺乏反事实使得观察法获得的因果效应并不等于真实因果效应。该问题被称之为因果推论的根本问题(Fundamental Problem in Causal Inference)。而从以上分析可以发现,该问题根源在于个体差异:健康个体和病患个体存在诸多差异,因而前者无法作为后者的“反事实”。传统计量经济学所发展出来的所有分析工具,不管采用何种研究设计,其最终目的都是构建出介入组(Treatment Group)的反事实。一般来说,这些方法通过寻找恰当的控制组(Control Group)并提供证据来论证或假定该组可以作为介入组的反事实。找到适当的控制组后,它在介入后的取值即可以作为介入组的反事实,二者间差异为介入效果。

这个过程就为机器学习的应用提供了机会:与其直接计算介入组和控制组在介入后的差异,不如利用控制组中样本构建出某种函数 (比如样本的加权平均),使得该函数的取值与介入组足够相似,从而便可将该函数在介入后的取值作为反事实。用公式表述如下:

其中是控制组没有被介入时的取值,是介入组在介入前取值。而是反事实的预测值,表示介入组如果没有被介入时的取值。该函数作为介入组反事实的合理性可以通过其在介入前的值与介入组在介入前的值的差值反映。如果两者差异不大,表示该函数和介入组足够相似:用它作为反事实是可靠的。一般来说,我们用该函数的预测值和的差值平方来评价,公式表示如下:

如果将式(18)与第三部分式(1)对比,可以发现两者最小化目标函数十分相似:式(18)是最小化残差平方和,而式(1)是最小化均方误差(MSE)。从这意义上,对反事实的估计可以被视作为一种预测 (Varian, 2016; Athey, forthcoming)。 以下将依次结合DID及RD具体展示机器学习如何实现对反事实的估计。

2. 双重差分方法

双重差分是当前应用微观计量经济学中最常用的政策评估方法之一。我们用图4来展示该方法识别因果的策略。

图4 双重差分(DID)识别策略示意图

注:淡蓝色代表介入组 (地区T),橙黄色代表控制组 (地区C),红色竖线代表在地区实施的某一政策。

假设某个地区 (地区T) 被政策介入,该地区某项我们感兴趣的指标在政策前(红线左边)的取值为①,政策实施后(红线右边)的取值为②。很明显,②-①并不是政策效果:我们并不知道该地区如果没有政策的话,该指标取值是多少 (反事实)。为了解决该问题,DID的策略是寻找另外一个地区 (地区C),该指标在地区政策前后的取值分别是③和④。①、②、③和④的取值分别表示为。该方法假设在政策后该指标取值⑤是的T反事实。在该方法中,反事实⑤的取值来自于①、③和④点:⑤=①+(④-③),其中④-③为C地区的时间趋势,假定与T地区相同。因此,政策效果被表示为:②-[①+(④-③)],也可以表示为(②-①)-(④-③),这也就是该方法被称之为双重差分的原因。当然,出于展示的便利,图4中仅用4个点表示所有样本的四种情况。在实际研究中,这四个点背后会有很有观察值。在这种情况下,上文①+(④-③)的就被表述成:

(19)

其中Y的第一个下标仍然代表上文中的控制组 (地区C),而第二个下标i则表示样本中的第i个观察值。[33] 式子末尾的常数项Constant即为实验组与控制组在施加处理前的差异,也就是图4中①和③的垂直距离。因此,从本质上说,双重差分方法比较的这四个点背后所有观察值算数平均的差值。

从以上分析可得,DID方法有效性依赖于两个地区存在相似的时间趋势。如果研究者用样本算数平均数来构建反事实,上述假设并不容易满足。一些研究者试图放松该假设,采用更加一般化的加权平均方法来构建反事实。该思路被称之为合成控制法 (Synthetic Control Method, SCM) (Abadie et al. 2010)。在该方法下,反事实被表示为:

(20)

下一步需要解决的问题是每一个观察值所被赋予的权重,这可以通过最小化式 (6) 的残差平方和来得到:

(21)

受到SCM的启发,Doudchenko and Imbens (2016) 将加权平均进一步放松为更加一般的线性组合函数来构建反事实,这也成为了机器学习在DID中应用的基本思路。此时该一般线性函数可被表达为:

(22)

较之SCM,此处并不要求是权重,即可以取负值,且对于不作任何要求。那此时的问题同样是如何找到参数和b来最小化式 (6)。对此,两位学者使用了正则化回归 (Regularised Regression),具体细节可以参照作者原文。至此,我们通过机器学习技术“改善”了DID方法中对反事实的估计:利用控制组和介入组在政策实施前的信息建立线性函数并预测出反事实。由于该技术较为前沿,目前暂时还没有运用该方法进行政策评估的具体研究。[34]

3. 断点回归方法

断点回归方法也是另外一种被广泛使用的因果识别方法。和双重差分方法用政策前后区分介入-控制样本组不同,样本是否被介入依赖于其中某一变量X (Forcing Variable) 相对于断点 (Cut-off) 的大小。不妨假设大于断点的那部分样本被介入,那么上述逻辑可以表述为:

(23)

该式子表示当X≥cut-off时,对应的样本被定义为介入组,而当X<cut-off时,对应样本被定义为控制组。介入组和控制组都有相对应的被解释变量取值。假设被解释变量在相应控制组和介入组内部是连续变化的,如果该变量在断点左右出现跳跃,我们可以将其归咎于“基于断点”的介入所导致的因果效应 (Imbens and Lemieux, 2007)。

可以通过一个例子更加直观地展示上述研究设计的逻辑并在其中指出机器学习发挥作用的地方。最常见使用RD方法的研究问题是大学教育对工资的影响。研究者当然不能直接比较大学生和那些没上大学学生的平均工资差异:这两群人在能力上可能并不相同。这两群人在业界的工资差异除了反映出大学经历的作用外,也提取了诸如能力等个体异质性因素。而在实际操作中,能力非常难以精确度量。断点回归的目的是通过比较两组“相似”的样本进而剔除掉这些异质性因素,以下是研究设计。

假设大学录取分数线是60分,那么总有学生因为1分之差和大学失之交臂。在这种情况下,我们大都说靠59分的人运气太差,而非能力不行。换句话说,那些考了59分没能上大学的学生和恰好踩线60分得以进入大学的同学在能力上可能没什么太大差别,最终能否上大学完全是运气,而运气是随机的!这就使得我们在真实世界难能可贵地找到了用随机选择分配大学的机会。在该设定下,那些考59分的同学就无限接近为那些考了60分同学的反事实:考了60分但没读大学的同学。所以59分同学和60分同学在未来的工资差别可以视作为大学教育对收入的因果效应。

图5 断点回归 (RD) 识别策略示意图

上图展示了上述研究设计思路,其中横坐标代表考生分数,纵坐标代表工资。图中的60分,也就是能否上大学的分界线,用红色竖线加以表示。可以看到,那些考上60分的学生们被划分到介入组T,59分的学生们则是控制组C。在DID设置中,前者就是(介入组被介入后,②),后者就是(控制组在介入前,③)。和DID的区别在于,RD的研究设置中不存在——前者表示考上60分的学生 (介入组) 没有上大学的工资 (①),后者表示60分以下的学生 (控制组) 上了大学的工资 (④)。由于缺乏时间维度带来的这两个信息,RD无法使用DID中采用的①、③及④的信息构建出反事实⑤。在这种情况下,RD采用的策略是绕开①和④的信息,直接假设③等同于⑤。该假设在RD中之所以成立的原因在于上文所说的考59分的学生和考60分的学生高度同质。此时,用公式表述大学的因果效应如下:

式中的代表第i个学生的分数,表示其工资。式中的第一行利用了左、右极限刻画了真实的因果效应:同样考60分的一群学生仅仅由于是否上大学而导致的工资差。随后依据上文假设,RD近似地认为59分与60分的学生同质,从而得到了后两行的结论。

即使如此,挑战依然存在。考59分和60分的学生在能力上相同的假设可能太强:1分只差也是能力的差别!此时,RD效果依然会提取能力作用进而导致大学对工资的影响被高估。机器学习可以帮助研究者消除这一差异 (Varian, 2016)。通过各种预测模型,机器学习技术能够通过以下步骤构建出考到60分但却没有读大学的同学的未来工资 (⑤)。首先,机器学习可以利用③的信息 (小于等于59分的样本) 归纳出没有上大学人群中工资与分数间的关系:

然后扩大函数的“定义域”:将60分作为解释变量带入上右端的函数中。此时函数的取值就是那些“倘若”考到60分但却没有接受大学教育的同学未来的工资,将此作为60分且读大学同学的反事实 (⑤):此时,比较机器学习得到的反事实与传统RD方法得到的反事实,我们可以发现机器学习已经将59到60分之间的能力剔除在外了,进而获得更加精确的因果效应。

现在问题转变为怎样的机器学习预测函数f能够达成推测因果效应的目的。第一,f应当具有较好的预测性能,即尽可能减小均方误差。第二,f给出的估计量应当具有良好的统计性质:包括在大样本下渐进一致性以及较窄置信区间等。针对这些要求,Imbens and Wager (forthcoming) 利用凸优化的数值方法(Numerical Convex Optimization Method)来进行断点回归的因果推断, 超越了传统上用来进行RD识别的局部线性回归(Local Linear Regression)。[35]

4.工具变量方法[36]

除了双重差分及断点回归方法之外,应用微观计量经济学者也经常使用工具变量方法 (Instrumental Variable Approach) 来识别因果关系。和以上两种方法依赖于寻找同质样本的思路不同,工具变量方法试图寻找外生变量来克服异质性与样本是否被介入间的关系。实际操作采用两阶段最小二乘法 (Two-stage Least Squares, 2SLS) 实现。在第一阶段通过OLS线性估计用外生工具变量“替代”内生解释变量 (是否介入或者介入的程度) ,从而获得内生解释变量的预测值。该预测值的方差都是由于外生工具变量所解释,与异质性之间的关系便不再存在。在第二步中,用解释变量预测值和被解释变量回归,获得解释变量的一致性估计系数。 我们在这里仍然采用教育对收入作用来展示工具变量方法的操作方法。该例子来自Angrist and Krueger (1991) ,作者试图估计教育时长对工资的作用,估计公式如下:上文提到,不管是否上大学还是大学教育时间长短均和个体异质性有关系,这就意味着上述因果关系中存在内生性问题:Cov(edu, u)≠0。这导致研究者无法区分观察到的收入差异到底来自于教育还是个体异质性。为了应对该内生性问题,两位作者采用工具变量方法,他们认为出生时间z是一个很好的工具变量。对该变量的评价需要了解一下美国的义务教育制度:义务教育法律规定学童在年满6周岁时要入学读书,年满16周岁后才可以离开学校。[37] 法律规定的“年满6周岁”指的是当年1月1日年满6周岁。该一刀切的规定会导致出生月份不同的学童实际接收教育时长存在差别。举一个极端例子,一个12月31日出生的学童,在6年后的1月1日时恰好6周岁多一天。按照法律规定,该学童符合入学条件。而另一个在1月2日出生的学童在入学日时却只有5周岁364天。虽然之后1天只差,但依然不能入学,必须等到下一年1月1日。那时他已经6周岁364天。由于离校都是16周岁的那天,这会导致1月2日出生的学童比12月31日出生的学童少接受364天教育。当然大部分学童受到的教育时常都小于该极端值。可以看出,上述制度设置所导致的教育时长差异是由于出生月份导致,如果我们假设能力和出生月份无关的话,那么该变量就是教育时常的有效工具变量。可用公式表示为:满足上述条件之后,研究者便可以用两阶段最小二乘法估计教育对收入的影响作用。在实际操作上,先将教育edu与出生月份进行回归(第一阶段):该阶段的目标是获得教育的预测值:接下来,把作为解释变量,工资wage作为解释变量,再进行回归(第二阶段):最终得到的系数估计,该系数是教育作用的一致性估计值。

工具变量方法的实施关键在于第一阶段,不光需要给出证据证明工作变量具有外生性,还要通过统计指标说明该工具变量和内生解释变量之间存在足够强的相关关系。在这篇研究中,作者给出一些证据比如Z估计值的显著性来说明出生季节的确和教育时长之间存在相关关系,但后续许多学者认为该相关关系并不强以至于影响最终的估计结果 (Bound et al., 1995; Staiger and Stock, 1997; Card, 1999)。 该问题本质上仍然是外生Z对内生edu的预测能力,而这正是机器学习最擅长的地方(Varian, 2016; Mullainathan and Spiess, 2017; Athey, 2018)。因此,工具变量方法的第一阶段完全可以采用机器学习技术预测内生解释变量。这一领域已经积累起了较多的理论计量文献:有些学者采用正则化回归,比如LASSO和Ridge等方法来构建第一阶段的估计(Belloni et al., 2012; Carrasco, 2012; Hansen and Kozbur, 2014);另一些学者则采用神经网络等非线性方法来进行第一阶段的估计(Hartford et al., 2016)。


五、展望及结论


和业界及自然科学领域中机器学习技术的应用相比,社会科学中该技术的应用近几年也获得了长足发展,但整体来说仍然处于较为初步的阶段。不管数据生成、预测还是因果识别,我们都认为机器学习技术的引入对整个社会科学研究范式的冲击有限。就数据生成来说,机器学习仅提高了数据搜集和整理的生产率,将以前通过人力难以获得的数据变为可得。但这些由机器学习生成的数据依然以变量形式进入到传统社会科学研究框架内,本质上没有改变社会科学的研究方法;就预测来说,目前社会科学在该领域的应用在很大程度上是对业界已经成果的复制。引领这一领域发展的驱动力依然是商业应用;就最有可能产生颠覆意义的因果识别来说,虽然利用机器学习的预测优势构建处理组的反事实在方法论上行得通,但目前并没有被研究者所广泛接受和使用。本文认为其原因有两个:第一,很大程度上社会科学,特别是经济学在识别因果上已经发展出非常成熟的范式。除非能够带来颠覆性的边际贡献,研究没有理由抛弃传统因果识别方法。我们认为目前一个较为务实的做法是将机器学习识别因果的相关证据作为稳健性检验方式放入原有框架;第二,充分发挥机器学习的预测能力依赖于海量数据,当前社会科学研究的样本量远没有达到能够让其获得精准预测的下限。[38]

机器学习使得研究者获得了以前通过人工投入无法获得的海量数据,检验了一些依靠传统方法无法有效的假设,这在一定程度上拓展了社会科学研究的边界。我们相信未来几年会有越来越多的学者会在研究中尝试机器学习技术。但我们也必须对该技术在应用过程中可能带来的问题也要有清醒的认识,这主要涉及学者间不平等及数据可复制性问题。机器学习依赖海量数据,这些数据的产生者主要来自业界和政府组织。可以想象,获得这些数据的主要方式并不是团队劳动投入,而是学者通过个人和组织的网络关系获得使用许可。这无疑给大部分学者设置了进入障碍,进而造成赢者通吃并可能加剧学界内部的不平等;机器学习带来的另外一个问题是研究的可复制性。学者通过公布数据及程序代码可以让其他学者和学生复制论文结论。但基于大数据的研究,学者虽然可以公布代码,但数据的公开必须获得数据提供方的许可。和一般数据相比,业界和政府可能更不情愿公布这些海量数据。这可能导致基于大数据研究的可复制性降低。我们对此的建议是,学者在获得数据的同时一并争取获得在未来公布其中的若干部分(比如数据量的万分之一)的权利:随机取样的子样本依然具有重复复制的价值。    

____________________

和该概念相关并经常被同时提起的另外一个概念是人工智能(Artificial Intelligence, AI)。严格意义上,机器学习应归属于人工智能研究范畴内。人工智能还包括诸如机械伦理学、自然语言处理和计算机图像识别等领域,机器学习更像是实现人工智能的手段和算法基础。为了和现有文献保持一致,我们对这两个概念不做明确区分,都称为广义的“机器学习”。参见Athey (forthcoming) 和Camerer (forthcoming)。

2 中文经济学权威期刊中涉及机器学习技术的论文在2014年至2017年内翻了5倍。正文中提到的五大期刊指的是American Economic ReviewEconometricaJournal of Political EconomyQuarterly Journal of EconomicsReview of Economic Studies。经济学中文权威期刊是指《管理世界》、《金融研究》、《经济学(季刊)》、《经济研究》和《世界经济》。此外还有另外两个更能反映未来研究趋势的指标:NBER工作论文在2016–17年的每个季度平均有8篇新文章是关于机器学习的;在美国前20名高校经济系讲座中,16–17年每个季度平均有2–3个讲座涉及到机器学习。这两个指标反映出来的趋势也充分证实机器学习近年来在社会科学领域发展迅速。

3 另一个被广泛引用的机器学习定义是:如果一个算法在某项任务上的表现随着经验的积累而提升,那么就称该算法为机器学习,该定义来自于Mitchell (1997)。

4 不同算法度量“相似性”的方法都不同。以最简单的K-means聚类算法为例,该方法定义的“相似”指每个类别某个解释变量x距离该类别样本均值比较接近。

5 这在直观上很容易理解。比方说一个没有生物知识的小孩(算法),不知道什么是猫、什么是狗(不知道哪些邮件是垃圾邮件)。然而这个小孩仍然能通过这个动物的体型和尾巴等特征(邮件文本的结构和相似度等信息)将猫和狗区分开来(对邮件进行聚类)。

6 从文本中生成幸福感的例子见Hills et al. (2015)(本文四(一)部分)。

7 Crimson Hexagon运用人工智能的介绍参见Crimson Hexagon, “AI-Powered Consumer Insights Platform,” June, 2018, https://www.crimsonhexagon.com/ai-powered-consumer-insights/, Accessed July 9, 2018.

8 讯飞输入法的介绍见http://www.iflytek.com/about/index.html,该应用来自于McKinsey & Company (2017)。

9 关于Wealthfront Inc.的详细介绍见https://www.wealthfront.com/expertise,该例子取自McKinsey & Company (2017)。

10 谷歌汽车Waymo的介绍来自于https://waymo.com/tech/。

11 亚马逊音箱及人工智能助手Alexa的工作原理及具体应用可见其官网上的介绍https://developer.amazon.com/alexa,该应用摘自McKinsey Global Institute (2016)

12 关于Feature Selection与数据降维的综述可以参考Blum and Langley (1997);Dash and Liu (1997);Kohavi and John (1997)。

13 LDA可以通过不同单词在一段文本中出现的位置、频率和上下文,推测出这段文本中含有几个主题。该技术的具体细节见Blei et al. (2003)

14 该文发现透明度提升后,成员更倾向于探讨经济问题并且在发言中更多地使用量化指标。造成这一变化的原因可能是官员在透明环境下更有动力探讨民众关注的经济问题并且花费更多时间去寻找量化证据来支持自己的发言。

15 此处提到的自动非参数文本分析技术是Hopkins and King (2010) 为社会科学研究中的文本分类开发的,读者可以进一步阅读原文了解其算法逻辑与实现方法。另一些研究则尝试结合人力与自然语言处理技术以进行“半自动化”的文本分析。这些研究包括Benoit et al. (2016) 以及Carlson and Montgomery (2017)。

16 这方面的工作和Henderson et al.(2012) 的研究不同,该研究是将夜间灯光的明暗转变为数据。而我们介绍的则是从高分辨率的卫星图片中识别出房屋、汽车等和地区财富相关指标。

17 类似通过卫星照片来估计地区财富水平的研究还有Jean et al. (2016)。

18 当然,文字能反映的感情显然不局限于幸福感和政治倾向,研究者可以根据研究所需生成想要的情感倾向变量。比如Wu (2017) 就利用机器学习来甄别出哪些词汇被经常用来刻画男性形象,哪些词汇更可能描述女性。

19 除了情感和政治立场分析之外,也有一些研究利用机器学习分析主流媒体的报道来预测军事冲突。Muelle and Rauh (2018) 首先利用和正文中提到的LDA方法提取《纽约时报》、《华盛顿邮报》和《经济学人》上的新闻主题并计算每年占比,然后将占比作为解释变量以预测军事冲突的可能发生地点。

20 偏差和方差的权衡取舍(Bias–Variance Tradeoff)是机器学习预测中的一个重大问题,详细讨论见Bishop (2006);Murphy (2012);Hastie et al. (2016)。

21 对于一般的非正交矩阵情况,Ridge的预测能力也是优于OLS的,严格数学证明见Theobald (1974).若读者对岭回归感兴趣,该技术的更多内容可以参考van Wieringen (2015)。

22 当X不是正交矩阵时,OLS得到的系数估计也是无偏的,这容易从式(4)中看出。

23 可以看到,λ反映了“惩罚力度”,当λ=0时意味着无惩罚,此时Ridge和OLS完全一样。

24 严格来说,LASSO和Ridge的“惩罚项”具有不同的含义:LASSO进行的是L1范数正则化,Ridge则是L2范数正则化。关于正则化详细讨论见Bishop (2006);Murphy (2012);Hastie et al. (2016)。

25 对于y=x,解释变量增加一个单位,被解释变量也增加一个单位,两者成正比。但对于y=sinx+logx^2,即便该函数对现实规律可能拟合地更好,研究者也很难对该函数进行“经济学解释”。因此在计量经济学中,学者很少使用类似复杂形式的函数模型。

26 很多机器学习技术都欠缺可解释性。比如,神经网络技术甚至能被视为黑箱:研究者无法得知解释变量通过何种机制影响被解释变量。一些致力于机器学习的学者也注意到了这个问题,正着手提高复杂模型的可解释性。相关讨论见Bau et al. (2017)。

27 用机器学习预测除Ridge之外,还可以采用非线性、半参或非参预测方法。Mullainathan and Spiess (2017) 对比了这些方法与OLS的差异,结果发现机器学习的预测能力普遍强于OLS。

28 随机森林是一种常见的机器学习技术。该方法在技术操作上容易实现且对计算机的运算能力要求也较低,是目前文献中常用的预测方法。其原理可被看作多个“如果–那么”结构。举例来说,如果天气好且空气也不错的话,我就去打网球。此处的天气有“好”、“坏”两种,而后又进一步分出空气“好”“坏”两种情况。计算机根据每种情况计算出打网球的条件概率,这就构成是一颗决策树(Decision Tree)。多个决策树组合到一起就是所谓的随机森林。

29 梯度提升决策树可被看成决策树套入到梯度提升的框架里。梯度提升主要用来解决运算中的最优化问题。如果把运算比作爬山,每一步均沿着山坡最陡峭的方向爬,这样会使得爬到山顶的路径最短,这就是“梯度提升”的思想 (Friedman, 2001)。

30 该技术的基本思想依旧是决策树,而“框架”则是“随机梯度下降”。上一条脚注提到的“上升”和此处的“下降”没有本质区别,都是最优化方法,差别仅在于根据不同的目标函数求出最大值或最小值。采用“随机”的目的是为了减少运算量:没必要每一步都精确地算出究竟哪个方向的山坡最陡峭。登山者只需要随机选取一个方向,保证每一步都是向上的,那么早晚都会爬到山顶。此时路径可能较长,但优点是节省了计算山坡每一点梯度的时间 (Ruder, 2016)。

31 Yelp是美国最大的点评网站,类似中国的大众点评。

32 在大多数情况下,我们并不清楚选择偏差是否大于还是小于零。这意味着在大多数情况下,偏差方向是未知的。

33 为了展示的便利,此处我们假设介入组Y_T中仅有一个样本。因此,\hat{Y_T}(post)没有i下标。该假设并不损失一般性Doudchenko and Imbens (2016)。

34 在Doudchenko和Imbens的研究中,两位作者首先用理论推导的方法表述机器学习如何与DID结合进行因果识别,然后以现有文献研究过的三个问题对其展示。这三个例子分别是Abadie et al. (2010) 研究的加州的禁烟管制;Abadie et al. (2015) 研究的德国统一及Card (1990) 和Peri and Yasenov (2015) 研究的马列尔偷渡。

35 传统方法有两大不足:首先,传统方法的前提假设是变量的连续性,在上文例子中该假设意味着分数必须是连续的,然而很多实证研究里的变量都是离散的。其次,传统方法虽然具有一致性,但它并不是最小化均方误差的估计量 (Armstrong and Kolesár, 2018;Kolesár and Rothe, forthcoming)。两位作者的研究利用了机器学习中常用的凸优化数值方法改进了这两个问题。

36 机器学习在工具变量方法中的应用本质上仍然属于预测部分,而并不涉及反事实的估计。出于内容的相关性,我们将这部分放在因果推论部分论述。

37 有些州规定的离校最低年龄是17岁,这不会影响我们下面的讨论。

38 2017年《美国经济学评论》(American Economic Review)和《经济研究》上面实证研究样本量的中位数分别是16068和4557。

@论文大焖锅

版权声明

本文来自论文大焖锅,如需转载,请自行联系!

历史文章推荐:

AI综述专栏 | 非精确图匹配方法综述

从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史

SFFAI分享 | 曹杰:Rotating is Believing

SFFAI分享 | 黄怀波 :自省变分自编码器理论及其在图像生成上的应用

AI综述专栏 | 深度神经网络加速与压缩

SFFAI分享 | 田正坤 :Seq2Seq模型在语音识别中的应用

SFFAI 分享 | 王克欣 : 详解记忆增强神经网络

SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展

SFFAI 分享 | 李宏扬 :二阶信息在图像分类中的应用

登录查看更多
2

相关内容

最新《多任务学习》综述,39页pdf
专知会员服务
258+阅读 · 2020年7月10日
多模态深度学习综述,18页pdf
专知会员服务
210+阅读 · 2020年3月29日
机器翻译深度学习最新综述
专知会员服务
96+阅读 · 2020年2月20日
智能交通大数据最新论文综述-附PDF下载
专知会员服务
103+阅读 · 2019年12月25日
零样本图像分类综述 : 十年进展
专知会员服务
122+阅读 · 2019年11月16日
自动机器学习:最新进展综述
专知会员服务
116+阅读 · 2019年10月13日
机器学习在材料科学中的应用综述,21页pdf
专知会员服务
45+阅读 · 2019年9月24日
【综述】视频摘要最新综述文章,附45页综述全文下载
专知会员服务
33+阅读 · 2019年9月20日
【综述】自动机器学习AutoML最新65页综述,带你了解最新进展
中国人工智能学会
47+阅读 · 2019年5月3日
无参考图像质量评价研究进展综述
人工智能前沿讲习班
45+阅读 · 2019年2月15日
AI综述专栏 | 非精确图匹配方法综述
人工智能前沿讲习班
8+阅读 · 2018年11月16日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
30+阅读 · 2018年10月31日
【学科发展报告】多媒体分析
中国自动化学会
6+阅读 · 2018年9月29日
AI综述专栏|多模态学习研究进展综述
人工智能前沿讲习班
64+阅读 · 2018年7月13日
AI综述专栏|神经科学启发的人工智能
人工智能前沿讲习班
5+阅读 · 2018年7月11日
AI综述专栏 | 步态识别的深度学习综述
人工智能前沿讲习班
29+阅读 · 2018年6月27日
AI综述专栏|跨领域推荐系统文献综述(下)
人工智能前沿讲习班
14+阅读 · 2018年5月18日
AI综述专栏 | 跨领域推荐系统文献综述(上)
人工智能前沿讲习班
13+阅读 · 2018年5月16日
A Survey on Edge Intelligence
Arxiv
49+阅读 · 2020年3月26日
Arxiv
108+阅读 · 2020年2月5日
Arxiv
22+阅读 · 2019年11月24日
Arxiv
135+阅读 · 2018年10月8日
VIP会员
相关VIP内容
最新《多任务学习》综述,39页pdf
专知会员服务
258+阅读 · 2020年7月10日
多模态深度学习综述,18页pdf
专知会员服务
210+阅读 · 2020年3月29日
机器翻译深度学习最新综述
专知会员服务
96+阅读 · 2020年2月20日
智能交通大数据最新论文综述-附PDF下载
专知会员服务
103+阅读 · 2019年12月25日
零样本图像分类综述 : 十年进展
专知会员服务
122+阅读 · 2019年11月16日
自动机器学习:最新进展综述
专知会员服务
116+阅读 · 2019年10月13日
机器学习在材料科学中的应用综述,21页pdf
专知会员服务
45+阅读 · 2019年9月24日
【综述】视频摘要最新综述文章,附45页综述全文下载
专知会员服务
33+阅读 · 2019年9月20日
相关资讯
【综述】自动机器学习AutoML最新65页综述,带你了解最新进展
中国人工智能学会
47+阅读 · 2019年5月3日
无参考图像质量评价研究进展综述
人工智能前沿讲习班
45+阅读 · 2019年2月15日
AI综述专栏 | 非精确图匹配方法综述
人工智能前沿讲习班
8+阅读 · 2018年11月16日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
30+阅读 · 2018年10月31日
【学科发展报告】多媒体分析
中国自动化学会
6+阅读 · 2018年9月29日
AI综述专栏|多模态学习研究进展综述
人工智能前沿讲习班
64+阅读 · 2018年7月13日
AI综述专栏|神经科学启发的人工智能
人工智能前沿讲习班
5+阅读 · 2018年7月11日
AI综述专栏 | 步态识别的深度学习综述
人工智能前沿讲习班
29+阅读 · 2018年6月27日
AI综述专栏|跨领域推荐系统文献综述(下)
人工智能前沿讲习班
14+阅读 · 2018年5月18日
AI综述专栏 | 跨领域推荐系统文献综述(上)
人工智能前沿讲习班
13+阅读 · 2018年5月16日
Top
微信扫码咨询专知VIP会员