少样本学习(FSL)在机器学习领域具有重要意义和挑战性。成功地从很少的样本中学习和归纳的能力是区分人工智能和人类智能的一个明显的界限,因为人类可以很容易地从一个或几个例子中建立他们对新颖性的认知,而机器学习算法通常需要数百或数千个监督样本来保证泛化能力。尽管FSL的悠久历史可以追溯到21世纪初,近年来随着深度学习技术的蓬勃发展也引起了广泛关注,但迄今为止,有关FSL的调研或评论还很少。在此背景下,我们广泛回顾了2000年至2019年FSL的200多篇论文,为FSL提供了及时而全面的调研。在本综述中,我们回顾了FSL的发展历史和目前的进展,原则上将FSL方法分为基于生成模型和基于判别模型的两大类,并特别强调了基于元学习的FSL方法。我们还总结了FSL中最近出现的几个扩展主题,并回顾了这些主题的最新进展。此外,我们重点介绍了FSL在计算机视觉、自然语言处理、音频和语音、强化学习和机器人、数据分析等领域的重要应用。最后,我们对调查进行了总结,并对未来的发展趋势进行了讨论,希望对后续研究提供指导和见解。

地址:

https://www.zhuanzhi.ai/paper/ffc99a53aeb6629e21b9a42db76b9dd1

概述:

人类智能的一个令人印象深刻的特点是能够从一个或几个例子中迅速建立对新概念的认知。许多认知和心理学证据[184,224,371]表明,人类可以通过很少的图像[23]识别视觉物体,甚至儿童也可以通过一次偶见就记住一个新单词[35,51]。虽然从很少的样本中支持人类学习和归纳能力的确切原因仍是一个深刻的谜,但一些神经生物学研究[285,29,157]认为,人类显著的学习能力得益于人脑中的前额叶皮层(PFC)和工作记忆,特别是PFC特有的神经生物学机制与大脑中存储的以往经验之间的相互作用。相比之下,最先进的机器学习算法都需要大量数据,尤其是最广为人知的深度学习[186],它将人工智能推向了一个新的高潮。深度学习作为机器学习发展的重要里程碑,在视觉[172,319,120]、语言[231,318]、语言[127]、游戏[308]、人口学[97]、医学[74]、植物病理学[100]、动物学[252]等广泛的研究领域都取得了显著的成就。一般来说,深度学习的成功可以归结为三个关键因素:强大的计算资源(如GPU)、复杂的神经网络(如CNN[172]、LSTM[129])和大规模数据集(如ImageNet[287]、Pascal-VOC[75])。然而,在现实的应用场景中,比如在医学、军事、金融等领域,由于隐私、安全、数据标注成本高等因素,我们无法获得足够的标签训练样本。因此,使学习系统能够有效地从很少的样本中进行学习和归纳,成为几乎所有机器学习研究人员所期待的蓝图。

从高层次上看,研究少样本学习的理论和现实意义主要来自三个方面。首先,FSL方法不依赖于大规模的训练样本,从而避免了在某些特定应用中数据准备的高昂成本。第二,FSL可以缩小人类智能和人工智能之间的差距,是发展通用人工智能的必要之旅[191]。第三,FSL可以实现一个新兴任务的低成本和快速的模型部署,而这个任务只有几个暂时可用的样本,这有利于阐明任务早期的潜在规律。

少数样本学习(FSL),又称小样本学习、少样本学习或一次性学习,可以追溯到21世纪初。尽管该研究已有近20年的历史,在理论和应用层面上都具有重要意义,但到目前为止,相关的调查和综述还很少。在本文中,我们广泛调查了从21世纪头十年到2019年几乎所有与FSL相关的科学论文,以详细阐述一个系统的FSL调研。我们必须强调,这里讨论的FSL与zero-shot learning (ZSL)正交[346],这是机器学习的另一个热门话题。ZSL的设置需要与概念相关的侧面信息来支持跨概念的知识迁移,这与FSL有很大的不同。据我们所知,到目前为止,只有两份与fsl相关的预先打印的综述伦恩[305,349]。与他们相比,本次综述的新颖之处和贡献主要来自五个方面:

(1) 我们对2000年至2019年的200多篇与FSL相关的论文进行了更全面、更及时的综述,涵盖了从最早的凝固模型[233]到最新的元学习方法的所有FSL方法。详尽的阐述有助于把握FSL的整个发展过程,构建完整的FSL知识体系。

(2) 根据FSL问题的建模原则,我们提供了一种可理解的层次分类法,将现有的FSL方法分为基于生成模型的方法和基于判别模型的方法。在每个类中,我们根据可一般化的属性进一步进行更详细的分类。

(3) 我们强调当前主流目前的方法,例如,基于目前的元学习方法,和分类成五大类,他们希望通过元学习策略学习学习,包括Learn-to-Measure Learn-to-Finetune, Learn-to-Parameterize,学会调整和Learn-to-Remember。此外,本调查还揭示了各种基于元学习的FSL方法之间潜在的发展关系。

(4) 总结了最近在普通FSL之外出现的几个外延研究课题,并回顾了这些课题的最新进展。这些主题包括半监督FSL、无监督FSL、跨域FSL、广义FSL和多模态FSL,它们具有挑战性,同时也为许多现实机器学习问题的解决赋予了突出的现实意义。这些扩展主题在以前的综述中很少涉及。

(5) 我们广泛总结了现有FSL在计算机视觉、自然语言处理、音频和语音、增强学习和机器人、数据分析等各个领域的应用,以及目前FSL在基准测试中的表现,旨在为后续研究提供一本手册,这是之前综述中没有涉及到的。

本文的其余部分组织如下。在第2节中,我们给出了一个概述,包括FSL的发展历史、我们稍后将使用的符号和定义,以及现有FSL方法的分类建议。第3节和第4节分别详细讨论了基于生成模型的方法和基于判别模型的方法。然后,第5节总结了FSL中出现的几个扩展主题。在第6节中,我们广泛地研究了FSL在各个领域的应用以及FSL的基准性能。在第8节中,我们以对未来方向的讨论来结束这次综述。

成为VIP会员查看完整内容
0
84
自然语言处理(NLP)是语言学,计算机科学,信息工程和人工智能的一个子领域,与计算机和人类(自然)语言之间的相互作用有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

Richard Szeliski博士,计算机视觉领域的大师级人物,现为Facebook研究科学家。Szeliski博士在计算机视觉研究方面有25年以上的丰富经验,先后任职干DEC和微软研究院。1996年,他在微软研究院任职期间,提出一种基于运动的全景图像拼接模型,采用L-M算法,通过求图像间的几何变换关系来进行图像匹配。此方法是图像拼接领域的经典算法,Richard Szeliski也因此成为图像拼接领域的奠基人。

http://szeliski.org/RichardSzeliski.htm

计算机视觉:算法与应用(第二版)

本书萌芽于2001年,当时,华盛顿大学的Steve Seitz邀我和他一起讲一门课,课程名称是“面向计算机图形学的计算机视觉”。那个时候,计算机图形学领域正在越来越多地使用计算机视觉技术,用它来创建基于图像的真实物体的模型,用于产生视觉效果,用于通过计算摄影学技术来合并真实影像。我们决定聚焦于计算机视觉在若干有趣问题中的应用,例如使用个人照片的图像拼接和基于照片的3D建模等,这一想法引起了学生们的共鸣。

  从那时起,华盛顿大学和斯坦福大学就一直使用类似的课程大纲和项目导向的课程结构来进行常规计算机视觉课程的教学(在斯坦福大学,在2003年这门课程由我和David Fleet共同讲授)。类似的课程大纲也被其他很多大学所采用,并被纳入计算摄影学相关的更专业的课程。(有关如何在课程中使用本书的建议,请参见1.4节的表1.1。)

  本书还反映了我在企业研究实验室(DEC剑桥研究实验室和微软研究院)这二十年的计算机视觉研究经历。在从事研究的过程中,我主要关注在真实世界中具有实际应用的问题和在实践中行之有效的方法(算法)。因此,本书更强调在真实世界条件下有效的基本方法,而较少关注内在完美但难以实际应用的神秘的数学内容。     本书适用于计算机科学和电子工程专业高年级本科的计算机视觉课程。学生最好已经修过图像处理或计算机图形学课程,这样一来,便可以少花一些时间来学习一般性的数学背景知识,多花一些时间来学习计算机视觉技术。本书也适用于研究生的计算机视觉课程(通过专研更富有挑战性的应用和算法领域),作为基本技术和近期研究文献的参考用书。为此,我尽量尝试引用每个子领域中最新的研究进展,即便其技术细节过于复杂而无法在本书中涉及。

  在课程教学过程中,我们发现,要使学生从容应对真实图像及其带来的挑战,让他们尝试实现一些小的课程设计(通常一个建立在另一个基础之上),是很有帮助的。随后,要求学生分成组选择各自的主题,完成最终的课程设计。(有时,这些课程设计甚至能转换为会议论文!)本书各章最后的习题包含有关小型中期课程设计题目的很多建议,也包含一些更开放的问题,这些问题的解决仍然是活跃的研究课题。只要有可能,我都会鼓励学生用他们自己的个人照片来测试他们的算法,因为这可以更好地激发他们的兴趣,往往会产生富有创造性的衍生问题,使他们更熟悉真实影像的多样性和复杂性。

  在阐述和解决计算机视觉问题的过程中,我常常发现从三个高层途径获取灵感是有帮助的。

  • 科学层面:建立图像形成过程的详细模型,为了恢复感兴趣量而构建其逆过程的数学方法(必要时,做简化假设使其在数学上更容易处理)。

  • 统计层面:使用概率模型来量化产生输入图像的未知量先验似然率和噪声测量过程,然后推断所期望量的最可能的估计并分析其结果的不确定程度。使用的推断算法往往与用于逆转(科学的)图像形成过程的优化方法密切相关。

  • 工程层面:开发出易于描述和实现且己知在实践中行之有效的方法。测试这些方法,以便于了解其不足和失效模态,及其期望的计算代价(运行时的性能)。

  以上这三个途径相互依存,并且贯穿本书始终。

第二版特别注释

过去的十年见证了计算机视觉算法在性能和适用性上的一次真正的爆炸,其中大部分是由机器学习算法运用于大量视觉训练数据而产生的。

深度神经网络现在在许多视觉算法中扮演着重要的角色,这本书的新版本在早期就将其作为基础技术介绍,并在后续章节中广泛使用。

第二版中最显著的变化包括:

机器学习、深度学习和深度神经网络在第5章中介绍,因为它们在视觉算法中扮演的角色与在前两章中介绍的图像处理、图形/概率模型和能量最小化等更经典的技术一样重要。

由于端到端深度学习系统不再需要开发构建模块,如特征检测、匹配和分割,因此识别章节已经在书的早些时候移到了第6章。许多选修视觉课程的学生主要对视觉识别感兴趣,因此在课程的早期呈现这些资料,可以使学生更容易以这些主题为期末专题的基础。

目录内容:

成为VIP会员查看完整内容
0
70

时间序列是一段时间内的一系列观察结果xt。通常情况下,观测可以在整个时间间隔内进行,在一个时间间隔或固定的时间点随机采样。不同类型的时间采样需要不同的数据分析方法。

https://www.stat.tamu.edu/~suhasini/

成为VIP会员查看完整内容
0
47

近日,本科毕业于哈佛大学统计学与经济学专业、现任哈佛助教的 Daniel Friedman 开放了他撰写的一本免费在线书籍《Machine Learning from Scratch》,该书从理论和数学上介绍了 ML 最常见算法(OLS、逻辑回归、朴素贝叶斯、决策树、boosts 和神经网络等)的完整推论。

地址:https://dafriedman97.github.io/mlbook/content/introduction.html

该书是为读者学习新的机器学习算法或了解更深层次的算法。具体地说,它是为那些有兴趣学习机器学习算法的读者准备的。这些推导可能有助于读者,特别是对基础算法不熟悉的读者,可以更直观地理解它们是如何工作的。或者,这些推导可以帮助有建模经验的读者理解不同算法是如何创建模型,以及每种算法的优缺点。

书籍概述

这本书涵盖了机器学习中最常见的方法。这些方法就像一个工具箱,为那些进入机器学习领域的人提供了便利,从而可以很快地找到所需工具。该书由 7 个章节以及 1 个附录组成。书的每一章节都对应一种机器学习方法或一组方法。

通过学习,你将学得:普通线性回归、线性回归扩展、判别分类器(Logistic 回归)、生成分类器(朴素贝叶斯)以及决策树等算法的完整推论。

每个章节均由这 3 部分组成。

其中,概念部分从概念上介绍这些方法,并从数学上推导结果;构建部分展示了如何使用 Python 从头开始构建方法;实现部分介绍了如何使用 Python 中的工具包(如 scikit-learn、statsmodels 和 tensorflow)应用这些方法。

为什么选择这本书?

现在关于机器学习的书籍数不胜数,在网上就可以免费获得。像《An Introduction to Statistical Learning》、《Elements of Statistical Learning》 和 《Pattern Recognition and Machine Learning》,这些机器学习书籍的作者掌握的知识更丰富,书籍内容涵盖的范围也更广。但值得注意的一点是:这些书籍只提供了概念上的机器学习以及方法背后的理论。

但是,本书重点介绍了机器学习算法的基本框架,旨在为读者提供独立构建这些算法的能力。作为一种「工具箱」而言,本书旨在成为用户指南,它不是用来指导用户关于该领域的广泛实践,而是在微观层面上讲述如何使用每种工具。

这本书需要读者掌握哪些知识?

需要注意的是,这本书的「概念」部分需要读者了解微积分知识,有些还需要了解概率(如最大似然和贝叶斯规则)和基本线性代数知识(如矩阵运算和点积)。

不过,该书附录部分回顾了所需的数学和概率知识。「概念」部分还参考了一些常见的机器学习方法,这些方法在附录中也有介绍。所以,「概念」部分不需要任何编程知识。

该书的「构建」和「代码」部分使用了一些基础的 Python 知识。「构建」部分需要了解相应的内容,并且需要熟悉用 Python 创建函数和类。「代码」部分则不需要这些知识。

参考链接:

https://mp.weixin.qq.com/s/xrUw_4IPI4BhYwHvjSuwzA

成为VIP会员查看完整内容
0
44

摘要:近年来,跨模态研究吸引了越来越多学者的关注,尤其是连接视觉和语言的相关课题。该文针对跨视觉和语言模态研究中的核心任务——图像描述生成,进行文献综述。该文从基于视觉的文本生成框架、基于视觉的文本生成研究中的关键问题、图像描述生成模型的性能评价和图像描述生成模型的主要发展过程四个方面对相关文献进行介绍和总结。最后,该文给出了几个未来的重点研究方向,包括跨视觉和语言模态的特征对齐、自动化评价指标的设计以及多样化图像描述生成。

http://jcip.cipsc.org.cn/CN/abstract/abstract2995.shtml

成为VIP会员查看完整内容
0
33

作为传统DNNs对图的推广,GNN继承了传统DNNs的优点和缺点。与传统的DNNs一样,GNN在许多图形相关的任务中被证明是有效的,比如节点聚类和图聚焦任务。传统的DNNs已被证明易受专门设计的对抗性攻击(Goodfellow et al., 2014b;徐等,2019b)。在对抗性的攻击下,受害样本会受到干扰,不容易被发现,但会导致错误的结果。越来越明显的是,GNNs也继承了这个缺点。对手可以通过操纵图的结构或节点特征来欺骗GNN模型,从而产生图的对抗性扰动。GNN的这种局限性引起了人们对在诸如金融系统和风险管理等安全关键应用程序中采用它们的极大关注。例如,在一个信用评分系统中,欺诈者可以伪造与几个高信用客户的关系,以逃避欺诈者检测模型;垃圾邮件发送者可以很容易地创建虚假关注者,以增加虚假新闻被推荐和传播的机会。因此,图形对抗性攻击及其对策的研究越来越受到人们的关注。在这一章中,我们首先介绍了图对抗攻击的概念和定义,并详细介绍了一些具有代表性的图对抗攻击方法。然后,我们讨论了针对这些对抗性攻击的典型防御技术。

http://cse.msu.edu/~mayao4/dlg_book/

成为VIP会员查看完整内容
0
32

自然语言处理中的预训练模型

论文:【复旦大学】最新《预训练语言模型》2020综述论文大全,50+PTMs分类体系,25页pdf205篇参考文献

目前预训练模型在自然语言处理领域取得了广泛的成功。本报告的内容主要涵盖以下4部分内容:1)预训练模型的原理介绍,包括模型结构、学习准则、发展历程等;2)预训练模型的迁移方法:包括如何通过任务转换、多步迁移、改进精调等方法来进一步提高预训练模型在下游任务上的性能;3)预训练模型的改进模型:包括知识嵌入模型、多模态模型、多语言模型、语言特定模型、领域特定模型和模型压缩等;4)对预训练模型及其未来发展趋势进行展望。

成为VIP会员查看完整内容
0
33

摘要: 网络是一系列节点和边的集合,通常表示成一个包含节点和边的图。许多复杂系统都以网络的形式来表示,如社交网络、生物网络和信息网络。为了使网络数据的处理变得简单有效,针对网络中节点的表示学习成为了近年来的研究热点。网络表示学习旨在为网络中的每个节点学习一个低维稠密的表示向量,进而可将得到的向量表示运用到常见的网络分析任务中,如节点聚类、节点分类和链路预测等。然而,绝大多数真实网络节点都有丰富的属性信息,如社交网络中的用户资料和引文网络中的文本内容。网络的属性信息对网络表示具有重要的作用,当网络高度稀疏时,网络的属性信息是网络表示重要的辅助信息,有助于更好地学习网络表示。传统的邻接矩阵仅仅表示了边的信息,而无法加入节点的属性信息。因此,网络表示不仅要保存网络的结构信息,还要保存网络的属性信息。此外,大多数真实世界网络都是动态变化的,这种变化包括网络节点的增加和减少,以及网络边的新建和消失。同时,与网络结构变化相似,网络中的属性也会随着时间的推移发生变化。随着机器学习技术的发展,针对网络表示学习问题的研究成果层出不穷,文中将针对近年来的网络表示学习方法进行系统性的介绍和总结。

http://www.jsjkx.com/CN/10.11896/jsjkx.190300004

成为VIP会员查看完整内容
0
30

可解释人工智能(xAI)是近年来出现的一个有趣的问题。许多研究人员正试图从不同的角度和有趣的结果来处理这个问题。然而,我们在理解这些类型的模型方面仍处于起步阶段。在未来的几年里,深度学习模型的开放性将被讨论。在经典的人工智能方法中,我们经常遇到深度学习方法。这些深度学习方法可以根据数据集大小、数据集质量、用于特征提取的方法、用于深度学习模型的超参数集、激活函数和优化算法得出高效的结果。然而,目前的深度学习模型还存在一些重要的不足。这些基于人工神经网络的模型是黑盒模型,它概括传输给它的数据并从数据中学习。因此,输入和输出之间的关系是不可观察的。这是人工神经网络和深度学习模型的一个重要开放点。由于这些原因,有必要认真研究黑盒模型的可解释性和可解释性。

成为VIP会员查看完整内容
0
29

图神经网络(GNNs)是针对图信号的信息处理体系结构。它们已经被开发出来,并在本课程中作为卷积神经网络(CNNs)的推广来介绍,它被用来在时间和空间上处理信号。这句话听起来可能有些奇怪,这取决于你对神经网络(NNs)和深度学习的了解程度。CNN不就是NN的特例吗?GNN不也是这样吗?从严格意义上说,它们是存在的,但我们这门课的重点是涉及高维信号的大规模问题。在这些设置中,神经网络无法伸缩。CNN为信号在时间和空间上提供可扩展的学习。GNNS支持图信号的可扩展学习。

在本课程中,我们将在学习单特征和多特征GNN之前,介绍图卷积滤波器和图滤波器组。我们还将介绍相关的架构,如经常性的GNN。特别的重点将放在研究GNN的排列的等方差和图变形的稳定性。这些特性提供了一个解释的措施,可以观察到的良好性能的GNNs经验。我们还将在大量节点的极限范围内研究GNN,以解释不同节点数量的网络间GNN的可迁移性。

https://gnn.seas.upenn.edu/

Lecture 1: Machine Learning on Graphs 图机器学习

图神经网络(GNNs)是一种具有广泛适用性和非常有趣的特性的工具。可以用它们做很多事情,也有很多东西需要学习。在第一节课中,我们将回顾本课程的目标并解释为什么我们应该关注GNN。我们还提供了未来的预览。我们讨论了在可扩展学习中利用结构的重要性,以及卷积是如何在欧几里得空间中实现这一点的。我们进一步解释如何将卷积推广到图,以及随后将卷积神经网络推广到图(卷积)神经网络。

1.1 – Graph Neural Networks 图神经网络

在这门课程中,我希望我们能够共同完成两个目标。您将学习如何在实际应用程序中使用GNNs。也就是说,您将开发使用图神经网络在图上表述机器学习问题的能力。你将学会训练他们。你将学会评估它们。但你也会学到,你不能盲目地使用它们。你将学习到解释他们良好的实证表现的基本原理。这些知识将允许您确定GNN适用或不适用的情况。

1.2 Machine Learning on Graphs: The Why 图机器学习

我们关心GNN是因为它们使机器能够在图上学习。但我们为什么要关注图机器学习呢?我们在这里详述图机器学习的原因。它为什么有趣?我们为什么要关心这个?我们关心的原因很简单:因为图表在信息处理中无处不在。

1.3 – Machine Learning on Graphs: The How

在讨论了原因之后,我们来处理如何做。我们如何在图上进行机器学习?这个问题的答案很简单:我们应该使用神经网络。我们应该这样做,因为我们有丰富的经验和理论证据证明神经网络的价值。理解这些证据是本课程的目标之一。但在我们准备这么做之前,有一个潜在的阻碍因素:神经网络必须利用结构来实现可扩展。

成为VIP会员查看完整内容
0
25

近年来,人工智能成为推动社会经济发展的新动力之一,在提高社会生产效率、实现社会发展和经济转型等方面发挥重要作用。作为主导新一代产业变革的核心力量,人工智能在医疗方面展示出了新的应用方式,在深度融合中又催生出新业态。

从全球范围来看,目前人工智能医疗产业仍处于发展早期阶段,相比于传媒、零售、教育等领域来说,商业化程度偏低。但随着市场需求不断扩大,向专业化细分领域深化发展,加之各国宏观政策支持和技术进步等,人工智能医疗发展前景广阔。美国靠早期的政策拉动医疗信息化和人工智能辅助医院管理,积累了大量数据,具备先发优势,属于领先梯队,目前已在药物研发、医疗机器人、医学影像、辅助诊断等方面全方位布局。其他国家如英国、德国、加拿大、日本等国则紧随其后,各有侧重,各有所长。

中国作为新兴市场国家的领头羊,人工智能医疗始终保持高速发展态势。目前,我国人工智能医疗发展历经计算智能阶段,目前正处于从感知智能向认知智能过渡的发展阶段,不同细分领域的技术发展情况和落地应用成熟度有所不同。AI医学影像是人工智能在医疗领域应用最为广泛的场景,率先落地、率先应用、率先实现商业化。手术机器人、药物研发、精准医疗等领域已有部分落地应用,但因成本或技术原因,尚未实现规模化普及,未来增长空间较大。受2020年初新冠肺炎疫情影响,人工智能在公共卫生领域特别是传染病的预防与控制方面发挥重要作用,传染病大数据分析预警系统、疫情排查系统、智能测温机器人、消毒机器人、语音服务机器人等在战“疫”一线被广泛应用。本研究报告立足于产业发展基本面,并结合当前人工智能医疗的最新发展与应用趋势,对公共卫生、医院管理、医学影像、医疗机器人、药物研发、健康管理、精准医疗和医疗支付共八大主要细分领域进行深入研究与分析,分析各领域所处的不同发展阶段、发展特征与应用价值,并盘点市场主要参与者,力求描摹2020年互联网医疗行业发展的新风向。

中国的人工智能医疗在政府与社会各界的共同投入与支持下,面临政策、市场、技术、人才等多重因素叠加利好的重要发展机遇。项目组重点分析了中国人工智能医疗领域目前所具有的六大发展机遇:机遇一,顶层设计不断加码,产业发展政策环境持续优化;机遇二,市场增长迎来发力期,资方入局窗口已经打开;机遇三,市场需求日益旺盛,慢病管理等领域颇具增长空间;机遇四,新冠疫情的迫切需求为相关产业的发展打开了新局面;机遇五,5G、量子计算等新技术的增长为产业发展提供了新动能;机遇六,复合型人才厚度增加为产业厚积薄发创造新节点。

在行业发展重要机遇期,政府密集释放相关利好政策,推动科技成果转化,推动数据共享,持续完善行业标准规范体系。同时,“以患者为核心、切实满足医生临床工作需求”的核心理念正在逐渐成为行业共识,人工智能医疗产品正在向覆盖多病种、深入应用场景的方向发展。可以预见,人工智能医疗大规模落地应用的时代即将来临。

成为VIP会员查看完整内容
0
28

这是100篇重要的自然语言处理(NLP)论文的列表,在这一领域工作的认真的学生和研究人员应该知道和阅读。

这个列表最初是基于我几年前在Quora上发布的一个问题的答案:什么是所有NLP学生肯定应该阅读的最重要的研究论文?我感谢所有为原文做出贡献的人。

这个列表远远不够完整,也不够客观,而且还在不断发展,因为重要的论文年复一年地发表。请让我知道通过拉请求和问题,如果什么是缺失。

论文不一定非得是同行评议的会议或期刊论文才会出现在这里。我们还包括指南/调查风格的论文和博客文章,通常比原始论文更容易理解。

http://masatohagiwara.net/100-nlp-papers/

100 Must-Read NLP Papers

This is a list of 100 important natural language processing (NLP) papers that serious students and researchers working in the field should probably know about and read. This list is compiled by Masato Hagiwara. I welcome any feedback on this list.

This list is originally based on the answers for a Quora question I posted years ago: What are the most important research papers which all NLP students should definitely read?. I thank all the people who contributed to the original post.

This list is far from complete or objective, and is evolving, as important papers are being published year after year. Please let me know via pull requests and issues if anything is missing.

A paper doesn't have to be a peer-reviewed conference/journal paper to appear here. We also include tutorial/survey-style papers and blog posts that are often easier to understand than the original papers.

Machine Learning

  • Avrim Blum and Tom Mitchell: Combining Labeled and Unlabeled Data with Co-Training, 1998.

  • John Lafferty, Andrew McCallum, Fernando C.N. Pereira: Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data, ICML 2001.

  • Charles Sutton, Andrew McCallum. An Introduction to Conditional Random Fields for Relational Learning.

  • Kamal Nigam, et al.: Text Classification from Labeled and Unlabeled Documents using EM. Machine Learning, 1999.

  • Kevin Knight: Bayesian Inference with Tears, 2009.

  • Marco Tulio Ribeiro et al.: "Why Should I Trust You?": Explaining the Predictions of Any Classifier, KDD 2016.

  • Marco Tulio Ribeiro et al.: Beyond Accuracy: Behavioral Testing of NLP Models with CheckList, ACL 2020.

Neural Models

  • Richard Socher, et al.: Dynamic Pooling and Unfolding Recursive Autoencoders for Paraphrase Detection, NIPS 2011.

  • Ronan Collobert et al.: Natural Language Processing (almost) from Scratch, J. of Machine Learning Research, 2011.

  • Richard Socher, et al.: Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank, EMNLP 2013.

  • Xiang Zhang, Junbo Zhao, and Yann LeCun: Character-level Convolutional Networks for Text Classification, NIPS 2015.

  • Yoon Kim: Convolutional Neural Networks for Sentence Classification, 2014.

  • Christopher Olah: Understanding LSTM Networks, 2015.

  • Matthew E. Peters, et al.: Deep contextualized word representations, 2018.

  • Jacob Devlin, et al.: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, 2018.

  • Yihan Liu et al. RoBERTa: A Robustly Optimized BERT Pretraining Approach, 2020.

Clustering & Word/Sentence Embeddings

  • Peter F Brown, et al.: Class-Based n-gram Models of Natural Language, 1992.

  • Tomas Mikolov, et al.: Efficient Estimation of Word Representations in Vector Space, 2013.

  • Tomas Mikolov, et al.: Distributed Representations of Words and Phrases and their Compositionality, NIPS 2013.

  • Quoc V. Le and Tomas Mikolov: Distributed Representations of Sentences and Documents, 2014.

  • Jeffrey Pennington, et al.: GloVe: Global Vectors for Word Representation, 2014.

  • Ryan Kiros, et al.: Skip-Thought Vectors, 2015.

  • Piotr Bojanowski, et al.: Enriching Word Vectors with Subword Information, 2017.

  • Daniel Cer et al.: Universal Sentence Encoder, 2018.

Topic Models

  • Thomas Hofmann: Probabilistic Latent Semantic Indexing, SIGIR 1999.

  • David Blei, Andrew Y. Ng, and Michael I. Jordan: Latent Dirichlet Allocation, J. Machine Learning Research, 2003.

Language Modeling

  • Joshua Goodman: A bit of progress in language modeling, MSR Technical Report, 2001.

  • Stanley F. Chen and Joshua Goodman: An Empirical Study of Smoothing Techniques for Language Modeling, ACL 2006.

  • Yee Whye Teh: A Hierarchical Bayesian Language Model based on Pitman-Yor Processes, COLING/ACL 2006.

  • Yee Whye Teh: A Bayesian interpretation of Interpolated Kneser-Ney, 2006.

  • Yoshua Bengio, et al.: A Neural Probabilistic Language Model, J. of Machine Learning Research, 2003.

  • Andrej Karpathy: The Unreasonable Effectiveness of Recurrent Neural Networks, 2015.

  • Yoon Kim, et al.: Character-Aware Neural Language Models, 2015.

  • Alec Radford, et al.: Language Models are Unsupervised Multitask Learners, 2018.

Segmentation, Tagging, Parsing

  • Donald Hindle and Mats Rooth. Structural Ambiguity and Lexical Relations, Computational Linguistics, 1993.

  • Adwait Ratnaparkhi: A Maximum Entropy Model for Part-Of-Speech Tagging, EMNLP 1996.

  • Eugene Charniak: A Maximum-Entropy-Inspired Parser, NAACL 2000.

  • Michael Collins: Discriminative Training Methods for Hidden Markov Models: Theory and Experiments with Perceptron Algorithms, EMNLP 2002.

  • Dan Klein and Christopher Manning: Accurate Unlexicalized Parsing, ACL 2003.

  • Dan Klein and Christopher Manning: Corpus-Based Induction of Syntactic Structure: Models of Dependency and Constituency, ACL 2004.

  • Joakim Nivre and Mario Scholz: Deterministic Dependency Parsing of English Text, COLING 2004.

  • Ryan McDonald et al.: Non-Projective Dependency Parsing using Spanning-Tree Algorithms, EMNLP 2005.

  • Daniel Andor et al.: Globally Normalized Transition-Based Neural Networks, 2016.

  • Oriol Vinyals, et al.: Grammar as a Foreign Language, 2015.

Sequential Labeling & Information Extraction

  • Marti A. Hearst: Automatic Acquisition of Hyponyms from Large Text Corpora, COLING 1992.

  • Collins and Singer: Unsupervised Models for Named Entity Classification, EMNLP 1999.

  • Patrick Pantel and Dekang Lin, Discovering Word Senses from Text, SIGKDD, 2002.

  • Mike Mintz et al.: Distant supervision for relation extraction without labeled data, ACL 2009.

  • Zhiheng Huang et al.: Bidirectional LSTM-CRF Models for Sequence Tagging, 2015.

  • Xuezhe Ma and Eduard Hovy: End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF, ACL 2016.

Machine Translation & Transliteration, Sequence-to-Sequence Models

  • Peter F. Brown et al.: A Statistical Approach to Machine Translation, Computational Linguistics, 1990.

  • Kevin Knight, Graehl Jonathan. Machine Transliteration. Computational Linguistics, 1992.

  • Dekai Wu: Inversion Transduction Grammars and the Bilingual Parsing of Parallel Corpora, Computational Linguistics, 1997.

  • Kevin Knight: A Statistical MT Tutorial Workbook, 1999.

  • Kishore Papineni, et al.: BLEU: a Method for Automatic Evaluation of Machine Translation, ACL 2002.

  • Philipp Koehn, Franz J Och, and Daniel Marcu: Statistical Phrase-Based Translation, NAACL 2003.

  • Philip Resnik and Noah A. Smith: The Web as a Parallel Corpus, Computational Linguistics, 2003.

  • Franz J Och and Hermann Ney: The Alignment-Template Approach to Statistical Machine Translation, Computational Linguistics, 2004.

  • David Chiang. A Hierarchical Phrase-Based Model for Statistical Machine Translation, ACL 2005.

  • Ilya Sutskever, Oriol Vinyals, and Quoc V. Le: Sequence to Sequence Learning with Neural Networks, NIPS 2014.

  • Oriol Vinyals, Quoc Le: A Neural Conversation Model, 2015.

  • Dzmitry Bahdanau, et al.: Neural Machine Translation by Jointly Learning to Align and Translate, 2014.

  • Minh-Thang Luong, et al.: Effective Approaches to Attention-based Neural Machine Translation, 2015.

  • Rico Sennrich et al.: Neural Machine Translation of Rare Words with Subword Units. ACL 2016.

  • Yonghui Wu, et al.: Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation, 2016.

  • Melvin Johnson, et al.: Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation, 2016.

  • Jonas Gehring, et al.: Convolutional Sequence to Sequence Learning, 2017.

  • Ashish Vaswani, et al.: Attention Is All You Need, 2017.

Coreference Resolution

  • Vincent Ng: Supervised Noun Phrase Coreference Research: The First Fifteen Years, ACL 2010.

  • Kenton Lee at al.: End-to-end Neural Coreference Resolution, EMNLP 2017.

Automatic Text Summarization

  • Kevin Knight and Daniel Marcu: Summarization beyond sentence extraction. Artificial Intelligence 139, 2002.

  • James Clarke and Mirella Lapata: Modeling Compression with Discourse Constraints. EMNLP-CONLL 2007.

  • Ryan McDonald: A Study of Global Inference Algorithms in Multi-Document Summarization, ECIR 2007.

  • Wen-tau Yih et al.: Multi-Document Summarization by Maximizing Informative Content-Words. IJCAI 2007.

  • Alexander M Rush, et al.: A Neural Attention Model for Sentence Summarization. EMNLP 2015.

  • Abigail See et al.: Get To The Point: Summarization with Pointer-Generator Networks. ACL 2017.

Question Answering and Machine Comprehension

  • Pranav Rajpurkar et al.: SQuAD: 100,000+ Questions for Machine Comprehension of Text. EMNLP 2015.

  • Minjoon Soo et al.: Bi-Directional Attention Flow for Machine Comprehension. ICLR 2015.

Generation, Reinforcement Learning

  • Jiwei Li, et al.: Deep Reinforcement Learning for Dialogue Generation, EMNLP 2016.

  • Marc’Aurelio Ranzato et al.: Sequence Level Training with Recurrent Neural Networks. ICLR 2016.

  • Samuel R Bowman et al.: Generating sentences from a continuous space, CoNLL 2016.

  • Lantao Yu, et al.: SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient, AAAI 2017.

成为VIP会员查看完整内容
0
26

【导读】ICML(International Conference on Machine Learning),即国际机器学习大会, 是机器学习领域全球最具影响力的学术会议之一,因此在该会议上发表论文的研究者也会备受关注。因疫情的影响, 今年第37届ICML大会已于2020年7月13日至18日在线上举行。据官方统计,ICML 2020共提交4990篇论文,接收论文1088篇,接收率为21.8%。与往年相比,接收率逐年走低。小编发现基于因果推理(Causal Inference)相关的paper很多,因果推理,以及反事实等相关理论方法在CV、NLP都开始有相关的应用了,这个前沿的方法受到了很多人的关注。

为此,这期小编继续为大家奉上ICML 2020必读的六篇因果推理(Causal Inference)相关论文——隐私攻击、因果效应估计、分层贝叶斯模型、反事实交叉验证、协变量表示

ICML 2020 Accepted Paper: https://proceedings.icml.cc/book/2020

ICML2020GNN_Part1、KDD2020GNN_Part1、CVPR2020SGNN、CVPR2020GNN_Part2、CVPR2020GNN_Part1、WWW2020GNN_Part1、

1、Alleviating Privacy Attacks via Causal Learning

作者:Shruti Tople, Amit Sharma, Aditya V. Nori

摘要:机器学习模型,特别是深度神经网络,已经被证明容易受到隐私攻击,例如成员关系推理(membership inference),在这种情况下,对手可以检测到数据点是否被用于训练黑盒模型。当模型用于预测不可知数据分布时,这样的隐私风险就会加剧。为了减轻隐私攻击,我们展示了基于输入特征和结果之间因果关系预测模型的好处。我们首先表明,使用因果结构学习的模型可以更好地推广到不可知数据(unseen data),特别是在与训练分布具有不同分布的数据上。基于这一性质,我们建立了因果关系和隐私之间的理论联系:与关联模型相比,因果模型提供了更强的区分隐私保证,并且对成员关系推理攻击具有更强的鲁棒性。在模拟的Bayesian networks和colored-MNIST数据集上的实验表明,在不同的测试分布和样本大小情况下,关联模型的攻击准确率高达80%,而因果模型的攻击准确率接近随机猜测。

网址: https://proceedings.icml.cc/paper/2020/file/4a11654ad1e1e48352252859ff3032a0-Paper.pdf

2、Causal Effect Estimation and Optimal Dose Suggestions in Mobile Health International Conference on Machine Learning

作者:Liangyu Zhu, Wenbin Lu, Rui Song

摘要:在这篇文章中,我们提出了新的结构性嵌套模型(nested models)来估计基于移动健康数据的持续治疗的因果效应(causal effects)。为了找到优化患者预期短期结果的治疗方案,我们将加权lag-K advantage定义为价值函数。然后将最优干预方案为使价值函数最大化的方案。我们的方法对数据生成过程施加了最小的假设。对估计的参数进行统计推断。模拟研究和在Ohio type 1 diabetes 数据集的应用表明,我们的方法可以为移动健康数据的剂量建议提供有意义的见解。

网址: https://proceedings.icml.cc/paper/2020/file/286674e3082feb7e5afb92777e48821f-Paper.pdf

3、Causal Inference using Gaussian Processes with Structured Latent Confounders

作者:Sam Witty, Kenta Takatsu, David Jensen, Vikash Mansinghka

摘要:潜在干扰因子(confounders)-影响介入选择和结果的一些未观察到的变量-可能会对因果效应的估计产生偏差。在某些情况下,这些干扰因子在不同的观察中是相同的,例如,一所学校的所有学生除了单独接受任何教育的干预外,还受到学校文化的影响。本文展示了如何对具有这种结构的潜在干扰因子进行建模,从而改进对因果效应的估计。主要创新点是分层贝叶斯模型、带结构干扰因子的高斯过程(Gaussian processes with structured latent confounders, GP-SLC)和基于椭圆切片采样(elliptical slice sampling)的蒙特卡罗推理(Monte Carlo inference)算法。GP-SLC提供个体治疗效果的原则性贝叶斯不确定性估计,对与干扰因子、协变量、介入和结果相关的函数形式的假设最少。本文还证明,对于线性函数形式,考虑潜在干扰因子中的结构对于因果效应的渐近相容估计是充分的。最后,本文证明了GP-SLC与等级线性模型( multi-level linear models)和贝叶斯加性回归树(Bayesian additive regression trees)等广泛使用的因果推理技术相比具有竞争力或更高的精确度。基准数据集包括 Infant Health 和Development Program ,以及显示温度变化对整个新英格兰全州能源消耗的影响的数据集。

网址: https://proceedings.icml.cc/paper/2020/file/56bd37d3a2fda0f2f41925019c81011d-Paper.pdf

4、Counterfactual Cross-Validation:Stable Model Selection Procedure for Causal Inference Models

作者:Yuta Saito, Shota Yasui

摘要:本文研究了conditional average treatment effect(CATE)预测中的模型选择问题。与以往的研究工作不同,我们的重点是保持候选CATE预测器性能的等级顺序,以便能够准确和稳定地选择模型。为此,我们分析了模型的性能排名问题,并制定了指导方针,以获得更好的评价指标。然后,我们提出了一种新的度量方法,它可以高置信度地识别CATE预测器的性能排名。实验评估表明,我们的度量方法在模型选择和超参数调整任务上都优于现有的度量方法。

网址: https://proceedings.icml.cc/paper/2020/file/dc6a70712a252123c40d2adba6a11d84-Paper.pdf

5、DeepMatch: Balancing Deep Covariate Representations for Causal Inference Using Adversarial Training

作者:Nathan Kallus

摘要:当丰富的协变量(covariates)和复杂的关系需要灵活的神经网络建模时,我们研究了从观测数据中进行因果推理时,如何平衡其协变量表示。在这种情况下,诸如倾向于加权和匹配/平衡之类的标准方法分别会因为未正确校正的倾向网络和不合适的协变量表示而失败。我们提出了一种基于权重和判别器网络的对抗训练的新方法,可以有效地解决这种方法上的差距。这是经过新的理论特征和基于合成与临床数据的经验结果证明的,这些结果表明在这种挑战性的环境中如何解决因果分析。

网址: https://proceedings.icml.cc/paper/2020/file/6e3197aae95c2ff8fcab35cb730f6a86-Paper.pdf

6、Efficient Identification in Linear Structural Causal Models with Auxiliary Cutsets

作者:Daniel Kumor, Carlos Cinelli, Elias Bareinboim

摘要:我们提出了一种新的多项式时间(polynomial-time)算法来识别线性因果模型中的结构系数,它包含了以前最先进的方法,统一了几种不同的识别方法。在这些结果的基础上,我们开发了一种识别线性系统中总因果效应的程序。

网址: https://proceedings.icml.cc/paper/2020/file/b635f9e3c038855c68c2704f08caeee1-Paper.pdf

成为VIP会员查看完整内容
0
25

《数据科学与机器学习概论》的创建目标是为寻求了解数据科学的初学者、数据爱好者和经验丰富的数据专业人士提供从头到尾对使用开源编程进行数据科学应用开发的深刻理解。这本书分为四个部分: 第一部分包含对这本书的介绍,第二部分涵盖了数据科学、软件开发和基于开源嵌入式硬件的领域; 第三部分包括算法,是数据科学应用的决策引擎; 最后一节汇集了前三节中共享的概念,并提供了几个数据科学应用程序示例。

^

  1. Introductory Chapter: Clustering with Nature-Inspired Optimization Algorithms 在本章中,读者将学习如何为聚类问题应用优化算法。

By Pakize Erdogmus and Fatih Kayaalp

  1. Best Practices in Accelerating the Data Science Process in Python

By Deanne Larson

数据科学和大数据项目的数量正在增长,当前的软件开发方法受到了挑战,以支持和促进这些项目的成功和频率。关于如何使用数据科学算法以及大数据的好处已经有了很多研究,但是关于可以利用哪些最佳实践来加速和有效地交付数据科学和大数据项目的研究却很少。大数据的数量、种类、速度和准确性等特点使这些项目复杂化。数据科学家可利用的开源技术的激增也会使情况变得复杂。随着数据科学和大数据项目的增加,组织正在努力成功交付。本文讨论了数据科学和大数据项目过程,过程中的差距,最佳实践,以及这些最佳实践如何在Python中应用,Python是一种常见的数据科学开源编程语言。

  1. Software Design for Success By Laura M. Castro

正如人们所期望的那样,技术书籍的大部分时间都集中在技术方面。然而,这造成了一种错觉,即技术在某种程度上是没有偏见的,总是中性的,因此适合每个人。后来,当产品已经存在时,现实会证明我们不是这样的。包含和表示在设计和建模阶段是至关重要的。在本章中,我们将从架构的角度分析,哪些非功能性需求是最敏感的,以及如何开始讨论它们以最大限度地提高我们的软件产品成功的可能性。

  1. Embedded Systems Based on Open Source Platforms By Zlatko Bundalo and Dusanka Bundalo

  2. The K-Means Algorithm Evolution By Joaquín Pérez-Ortega, Nelva Nely Almanza-Ortega, Andrea Vega-Villalobos, Rodolfo Pazos-Rangel, Crispín Zavala-Díaz and Alicia Martínez-Rebollar

  3. “Set of Strings” Framework for Big Data Modeling By Igor Sheremet

  4. Investigation of Fuzzy Inductive Modeling Method in Forecasting Problems By Yu. Zaychenko and Helen Zaychenko

  5. Segmenting Images Using Hybridization of K-Means and Fuzzy C-Means Algorithms By Raja Kishor Duggirala

  6. The Software to the Soft Target Assessment By Lucia Mrazkova Duricova, Martin Hromada and Jan Mrazek

  7. The Methodological Standard to the Assessment of the Traffic Simulation in Real Time By Jan Mrazek, Martin Hromada and Lucia Duricova Mrazkova

  8. Augmented Post Systems: Syntax, Semantics, and Applications By Igor Sheremet

  9. Serialization in Object-Oriented Programming Languages By Konrad Grochowski, Michał Breiter and Robert Nowak

本章描述了将对象状态转换为一种格式的过程,这种格式可以在当前使用的面向对象编程语言中传输或存储。这个过程称为序列化(封送处理);相反的称为反序列化(反编组)进程。它是一种低级技术,应该考虑一些技术问题,如内存表示的大小、数字表示、对象引用、递归对象连接等。在本章中,我们将讨论这些问题并给出解决办法。我们还简要回顾了当前使用的工具,并指出满足所有需求是不可能的。最后,我们提供了一个新的支持向前兼容性的c++库。

成为VIP会员查看完整内容
0
26

《The Hundred-Page Machine Learning Book》,中文翻译为为《百页机器学习书》。这本书是Andriy Burkov所著,其是Gartner的机器学习团队负责人。这本书短小精悍,只有一百页左右,包含大量自 20 世纪 60 年代以来具有重要实用价值的机器学习材料。它既适用于初学者,也适用于有经验的从业者。

让我们从实话实说开始:机器其实不会学习。典型的“Learning Machine”所做的是找到一个数学公式,当它应用于一组输入(称为“训练数据”)时,就会产生所需的输出。这个数学公式还可以为大多数其他输入(与训练数据不同)生成正确的输出,条件是这些输入来自与训练数据相同或类似的统计分布。

为什么这不是学习?因为如果你稍微改变或扭曲一下输入,输出就很可能完全错误。但动物的学习不是这样的。如果你学会了通过直视屏幕来玩电子游戏,那么如果有人稍微转动一下屏幕,你仍然可以玩得很好。机器学习算法,如果它是通过“直视”屏幕来训练的,除非它也经过了识别旋转的训练,否则它将无法在旋转的屏幕上玩游戏。

那么为什么叫“机器学习”呢?原因是由于市场营销:美国电脑游戏和人工智能领域的先驱阿瑟•塞缪尔(Arthur Samuel) 于1959年在IBM工作时创造了这个词。与IBM在2010年试图推销“认知计算(cognitive computing)”一词在竞争中脱颖而出的情况类似,在上世纪60年代,IBM使用了新的“机器学习(machine learning)”一词来吸引客户和有才华的员工。

正如你所看到的,就像人工智能不是智能一样,机器学习也不是学习。然而,机器学习是一个被普遍认可的术语,通常指的是制造机器的科学和工程,这些机器能够在没有明确编程的情况下完成各种有用的事情。因此,这个术语中的“学习”这个词是用来类比动物的学习,而不是字面上的学习。

成为VIP会员查看完整内容
0
26

利用Kubernetes快速采用新兴技术。Kubernetes是企业平台开发的未来,它已经成为当今最流行的、通常被认为是最健壮的容器编配系统。这本书集中在平台技术的力量的物联网,区块链,机器学习,和许多层的数据和应用管理支持他们。

成为VIP会员查看完整内容
0
25

摘要

本文综述了迁移学习在强化学习问题设置中的应用。RL已经成为序列决策问题的关键的解决方案。随着RL在各个领域的快速发展。包括机器人技术和游戏,迁移学习是通过利用和迁移外部专业知识来促进学习过程来帮助RL的一项重要技术。在这篇综述中,我们回顾了在RL领域中迁移学习的中心问题,提供了一个最先进技术的系统分类。我们分析他们的目标,方法,应用,以及在RL框架下这些迁移学习技术将是可接近的。本文从RL的角度探讨了迁移学习与其他相关话题的关系,并探讨了RL迁移学习的潜在挑战和未来发展方向。

关键词:迁移学习,强化学习,综述,机器学习

介绍

强化学习(RL)被认为是解决连续决策任务的一种有效方法,在这种方法中,学习主体通过与环境相互作用,通过[1]来提高其性能。源于控制论并在计算机科学领域蓬勃发展的RL已被广泛应用于学术界和工业界,以解决以前难以解决的任务。此外,随着深度学习的快速发展,应用深度学习服务于学习任务的集成框架在近年来得到了广泛的研究和发展。DL和RL的组合结构称为深度强化学习[2](Deep Reinforcement Learning, DRL)。

DRL在机器人控制[3]、[4]、玩[5]游戏等领域取得了巨大的成功。在医疗保健系统[6]、电网[7]、智能交通系统[8]、[9]等领域也具有广阔的应用前景。

在这些快速发展的同时,DRL也面临着挑战。在许多强化学习应用中,环境模型通常是未知的,只有收集到足够的交互经验,agent才能利用其对环境的知识来改进其性能。由于环境反馈的部分可观察性、稀疏性或延迟性以及高维观察和/或行动空间等问题,学习主体在没有利用任何先验知识的情况下寻找好的策略是非常耗时的。因此,迁移学习作为一种利用外部专业知识来加速学习过程的技术,在强化学习中成为一个重要的课题。

在监督学习(SL)领域[10]中,TL得到了广泛的研究。与SL场景相比,由于MDP环境中涉及的组件更多,RL中的TL(尤其是DRL中的TL)通常更复杂。MDP的组件(知识来自何处)可能与知识转移到何处不同。此外,专家知识也可以采取不同的形式,以不同的方式转移,特别是在深度神经网络的帮助下。随着DRL的快速发展,以前总结用于RL的TL方法的努力没有包括DRL的最新发展。注意到所有这些不同的角度和可能性,我们全面总结了在深度强化学习(TL in DRL)领域迁移学习的最新进展。我们将把它们分成不同的子主题,回顾每个主题的理论和应用,并找出它们之间的联系。

本综述的其余部分组织如下:在第2节中,我们介绍了强化学习的背景,关键的DRL算法,并带来了这篇综述中使用的重要术语。我们还简要介绍了与TL不同但又紧密相关的相关研究领域(第2.3节)。

在第3节中,我们采用多种视角来评价TL方法,提供了对这些方法进行分类的不同方法(第3.1节),讨论了迁移源和目标之间的潜在差异(第3.2节),并总结了评价TL有效性的常用指标(第3.3节)。

第4节详细说明了DRL领域中最新的TL方法。特别是,所讨论的内容主要是按照迁移知识的形式组织的,如成型的奖励(4.1节)、先前的演示(4.2节)、专家策略(4.3节),或者按照转移发生的方式组织的,如任务间映射(4.4节)、学习可转移表示(4.5节和4.6节)等。我们在第5节讨论了TL在DRL中的应用,并在第6节提供了一些值得研究的未来展望。

成为VIP会员查看完整内容
0
25

摘要

Transformer模型架构最近引起了极大的兴趣,因为它们在语言、视觉和强化学习等领域的有效性。例如,在自然语言处理领域,Transformer已经成为现代深度学习堆栈中不可缺少的主要部分。最近,提出的令人眼花缭乱的X-former模型如Linformer, Performer, Longformer等这些都改进了原始Transformer架构的X-former模型,其中许多改进了计算和内存效率。为了帮助热心的研究人员在这一混乱中给予指导,本文描述了大量经过深思熟虑的最新高效X-former模型的选择,提供了一个跨多个领域的现有工作和模型的有组织和全面的概述。

关键词:深度学习,自然语言处理,Transformer模型,注意力模型

介绍

Transformer是现代深度学习领域中一股强大的力量。Transformer无处不在,在语言理解、图像处理等许多领域都产生了巨大的影响。因此,在过去的几年里,大量的研究致力于对该模型进行根本性的改进,这是很自然的。这种巨大的兴趣也刺激了对该模式更高效变体的研究。

最近出现了大量的Transformer模型变体,研究人员和实践者可能会发现跟上创新的速度很有挑战性。在撰写本文时,仅在过去6个月里就提出了近12种新的以效率为中心的模式。因此,对现有文献进行综述,既有利于社区,又十分及时。

自注意力机制是确定Transformer模型的一个关键特性。该机制可以看作是一种类似图的归纳偏差,它通过基于关联的池化操作将序列中的所有标记连接起来。一个众所周知的自注意力问题是二次时间和记忆复杂性,这可能阻碍模型在许多设置的可伸缩性。最近,为了解决这个问题,出现了大量的模型变体。以下我们将这类型号命名为“高效Transformers”。

根据上下文,可以对模型的效率进行不同的解释。它可能指的是模型的内存占用情况,当模型运行的加速器的内存有限时,这一点非常重要。效率也可能指计算成本,例如,在训练和推理期间的失败次数。特别是对于设备上的应用,模型应该能够在有限的计算预算下运行。在这篇综述中,我们提到了Transformer在内存和计算方面的效率,当它们被用于建模大型输入时。

有效的自我注意力模型在建模长序列的应用中是至关重要的。例如,文档、图像和视频通常都由相对大量的像素或标记组成。因此,处理长序列的效率对于Transformer的广泛采用至关重要。

本篇综述旨在提供这类模型的最新进展的全面概述。我们主要关注的是通过解决自我注意力机制的二次复杂性问题来提高Transformer效率的建模进展和架构创新,我们还将在后面的章节简要讨论一般改进和其他效率改进。

本文提出了一种高效Transformer模型的分类方法,并通过技术创新和主要用例对其进行了表征。特别地,我们回顾了在语言和视觉领域都有应用的Transformer模型,试图对各个领域的文献进行分析。我们还提供了许多这些模型的详细介绍,并绘制了它们之间的联系。

成为VIP会员查看完整内容
0
25

2020年9月15日,由中国科学技术协会、工业和信息化部和重庆市人民政府等智博会组委会单位共同主办,重庆市科学技术协会、中国电子学会和重庆市永川区人民政府等共同承办的“第三届数字经济百人会”(以下简称“论坛”)于“2020线上中国国际智能产业博览会”开幕日下午在重庆成功举办。

在成果发布环节,中国电子学会人工智能研究室副主任凌霞发布由中国电子学会、中国数字经济百人会、商汤智能产业研究院联合编制的《新一代人工智能白皮书(2020年)——产业智能化升级》。该报告重点围绕我国产业智能化升级进行指标体系构建和指数分析,深入论证了制造业、农业、金融、医疗、教育、安防、交通、零售产业智能化升级的路径和效应,最后提出基础设施、数据开放融通、产业智能化运营系统和智能化安全保障体系四个方向的措施建议。

成为VIP会员查看完整内容
0
22

深度神经网络擅长于寻找解决大型数据集上复杂任务的层次表示。我们人类如何理解这些学习得到表示?在这项工作中,我们提出了网络解剖,一个分析框架,系统地识别在图像分类和图像生成网络中个别隐藏单元的语义。首先,我们分析一个在场景分类方面受过训练的卷积神经网络(CNN),并发现匹配不同对象概念集的单元。我们发现网络已经学习了许多在场景类分类中起关键作用的对象类。其次,我们使用类似的分析方法来分析生成对抗网络(GAN)模型训练生成场景。通过分析激活或停用小组单元时的变化,我们发现对象可以在适应上下文的同时从输出场景中添加或删除。最后,我们将分析框架应用于理解敌对攻击和语义图像编辑。

https://dissect.csail.mit.edu/

成为VIP会员查看完整内容
0
21
登录查看的更多。 返回顶部
本周荟萃主题
深度学习
机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。
机器学习
“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。”

——中文维基百科
强化学习
强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。
推荐系统
推荐系统,是指根据用户的习惯、偏好或兴趣,从不断到来的大规模信息中识别满足用户兴趣的信息的过程。推荐推荐任务中的信息往往称为物品(Item)。根据具体应用背景的不同,这些物品可以是新闻、电影、音乐、广告、商品等各种对象。推荐系统利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和产品过程无疑会使淹没在信息过载问题中的消费者不断流失。为了解决这些问题,个性化推荐系统应运而生。个性化推荐系统是建立在海量数据挖掘基础上的一种高级商务智能平台,以帮助电子商务网站为其顾客购物提供完全个性化的决策支持和信息服务。
卷积神经网络
在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。
命名实体识别
命名实体识别(NER)(也称为实体标识,实体组块和实体提取)是信息抽取的子任务,旨在将非结构化文本中提到的命名实体定位和分类为预定义类别,例如人员姓名、地名、机构名、专有名词等。
机器翻译
机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。
计算机视觉
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。
新闻
新闻,是指报纸、电台、电视台、互联网等媒体经常使用的记录与传播信息的 [2] 一种文体,是反映时代的一种文体。新闻概念有广义与狭义之分。广义上:除了发表于报刊、广播、互联网、电视上的评论与专文外的常用文本都属于新闻,包括消息、通讯、特写、速写(有的将速写纳入特写之列)等等; [3] 狭义上:消息是用概括的叙述方式,以较简明扼要的文字,迅速及时地报道附近新近发生的、有价值的事实,使一定人群了解。新闻一般包括标题、导语、主体、背景和结语五部分。前三者是主要部分,后二者是辅助部分。写法以叙述为主兼或有议论、描写、评论等。新闻是包含海量资讯的新闻服务平台,真实反映每时每刻的重要事件。您可以搜索新闻事件、热点话题、人物动态、产品资讯等,快速了解它们的最新进展。
图灵奖
图灵奖(A.M. Turing Award,又译“杜林奖”),由 美国计算机协会(ACM)于1966年设立,又叫“A.M. 图灵奖”,专门奖励那些对计算机事业作出重要贡献的个人。其名称取自计算机科学的先驱、英国科学家 阿兰·麦席森·图灵
Top