ICLR 2020丨微软亚洲研究院精选论文解读

2020 年 4 月 24 日 AI科技评论

本文为大家介绍的是微软亚洲研究院入选 ICLR 2020的 4 篇精选论文,研究主题分别为BERT 在机器翻译中的应用,有理论保障的对抗样本防御模型 MACER,一种新的基于自我博弈的文本生成对抗网络(GAN)训练算法,以及可广泛应用于视觉-语言任务的预训练通用特征表示 VL-BERT。
作者 | 微软亚院
编辑 | 丛  末


1、BERT 在神经机器翻译中的应用
论文链接:https://arxiv.org/pdf/2002.06823.pdf

BERT 在自然语言理解任务如文本分类、阅读理解上取得了巨大的成功,然而在机器翻译等文本生成任务上的应用仍缺乏足够的探索。 本篇论文研究了如何有效地将 BERT 应用到神经机器翻译(NMT)中。
在文本分类任务中, 通常有两种方法利用预训练模型;一种是利用 BERT 初始化下游任务的模型权重;另一种是让预训练模型给下游任务模型提供 contextual embedding。在初步尝试中,我们发现:(1)用 BERT 初始化 NMT 模型不能给机器翻译带来显著提升;(2)利用 BERT 提供 contextual embedding,在机器翻译上这个任务上更加有效。结果见表1。因此,本文将探索重点放在第二类方法上。

表1:利用预训练的不同方式在 IWSTL14 英德翻译的结果
我们提出的模型如下:
先将源语言句子输入 BERT 模型进行编码,得到输入序列的 BERT 模型特征。Transformer 的编码器和译码器的每一层都引入一个额外的注意力机制,让编码器和译码器去主动地去选取 BERT 模型特征中有用的信息。这种处理方式有效地解决了BERT 模型和机器翻译模型的分词方式不同产生的矛盾,也让 BERT 提取的特征更加有效、完全地融合到机器翻译这个任务中去。另外,我们还提出了 drop-net 的 trick,随机丢弃 Transformer 中原有的注意力分支或引入的额外注意力分支,能够有效地提高模型的泛化能力,提升机器翻译的效果。模型框架如图1所示。
图1:模型框架
我们将该方法作用到有监督翻译(句子级别翻译和文档翻译)、半监督机器翻译、无监督机器翻译中,都得到了显著的结果提升,在多个任务上都取得了 SOTA 的结果,说明了该方法的有效性。我们的算法在 WMT14 英德翻译和英法翻译的结果见表2。
表2:我们的算法在 WMT14 英德和英法翻译任务的结果。

2、有理论保障的对抗样本防御模型
论文链接:https://openreview.net/pdf?id=rJx1Na4Fwr

深度神经网络在很多领域都取得了成功,但它有一个致命的弱点:无法承受对抗样本的攻击。例如给定一张狗的图片,一个神经网络可以准确地将其分类为狗。但攻击者可以给这张图片加一个人类难以察觉的特殊噪音,使得神经网络把它分类成猫、树、车及任何其它物体。这样加过噪音的图片被称为对抗样本。这个弱点使得神经网络难以被应用到注重安全的领域,例如自动驾驶中。
如何防御对抗样本一直是研究人员关心的话题。目前最主流的防御方法是对抗训练,即在训练的每一次迭代中,先在线地生成对抗样本,再在这些对抗样本上训练神经网络。这样训练出来的网络可以一定程度地防御对抗样本的攻击。然而,对抗训练有两个缺点:一,这种防御是没有理论保证的,即我们不知道攻击者能否设计更聪明的攻击方法绕开这种防御;二,因为生成对抗样本很慢,所以对抗训练非常慢。
本文设计了一种算法去训练有理论保证的防御模型,能保证任何攻击都无法绕开这种防御。我们首先引入防御半径的概念。一个图片的可防御半径指的是半径内任何一个图片的预测都不发生变化。对于光滑模型,我们可以用高效的计算方法得到该半径的一个下界。而我们提出的算法 MACER(MAximize the Certified Radius)正是通过最大化该半径来学习有理论保证的防御模型。
图2:样本的可防御半径
MACER 算法的思路非常简单,设计却相当具有挑战性。第一个挑战是设计优化目标函数。我们通过数学推导将目标函数定为模型准确度和模型防御成功率的结合,并证明它是防御效果的上界;第二,我们提出了梯度软随机光滑化,这个变体可以提供可导的损失函数;第三,我们通过巧妙地设计损失函数,避免梯度爆炸问题。实验表明 MACER 可以取得比目前主流可验证防御算法更大的平均验证半径,且训练速度有数倍的提升。
表3:实验结果对比
MACER 算法主要带给我们两个启发:一是 MACER 完全与攻击无关,这不仅使得 MACER 运行相当快,而且可以让模型有效地防御任何攻击;二是 MACER 是一个有理论保证的防御算法,能够让实际应用有可靠的保障。

3、基于 Self-Play 的文本生成对抗网络(GAN)模型
论文链接:https://openreview.net/pdf?id=B1l8L6EtDS

本文介绍了一种新的基于自我博弈的文本生成对抗网络(GAN)训练算法。目前大多数文本生成任务,如机器翻译、文本摘要、对话系统等,都采用序列到序列模型(seq2seq),并通过最大似然估计(MLE)进行模型训练。这种训练方式存在 exposure bias 的问题,使得模型在训练和推断时单词的分布不一致,因此会影响生成质量。此前的工作如 SeqGAN 等,尝试通过 GAN 来训练文本生成模型。
GAN 在文本生成中的应用主要受限于两个问题,一是奖励稀疏(reward sparsity),即训练中判别器往往远强于生成器,因此生成器在训练过程中得到的奖励信号通常很低;二是模式崩溃(mode collapse),即生成的文本通常较为单一。本文中我们借鉴深度强化学习中常用的自我博弈(self-play)机制,提出了自对抗学习(SAL)范式来改进文本 GAN 的训练。
图3:自对抗学习中基于比较的判别器训练示意图
与传统的 GAN 中判别器对于给定样本输出其真/假标签不同,自对抗学习中采用一种新的基于比较的判别器,其输入是两个样本 A 和 B,输出标签包含三类,分别对应样本 A 的质量比 B 优(>),差(<),和无法区分(~=)。基于比较的判别器的训练过程如图3所示。
和 SeqGAN、LeakGAN 等文本 GAN 模型一样,SAL 通过 REINFORCE 算法对生成器进行训练。在训练期间,SAL 通过比较判别器,将生成器当前生成的样本与其自身先前生成的样本进行比较。当发现其当前生成的样本比其先前的样本质量更高时,赋予生成器正奖励,反之则奖励为负,两者质量无法区分时奖励为0。奖励的具体计算公式如图4公式所示。

图4:自对抗学习奖励计算公式
在文本生成 GAN 的早期训练阶段,当生成的样本质量远远低于真实样本的质量时,SAL 的自我对抗机制使得生成器不需要成功欺骗判别器、使其误将生成样本判断为真实样本才能获得奖励。相反的,SAL 会在生成器成功生成比之前更好的样本时就赋予其奖励信号,这种自我对抗的奖励机制使生成器更易于接收非稀疏奖励,从而有效缓解了奖励稀疏性问题。而在训练后期,SAL 可以防止开始高频出现的模式继续获得较高的奖励,因为包含这些经常出现的模式的句子经常会和相似的句子进行比较,因此在自我对抗中取胜也将变得越来越困难,从而防止生成器塌缩到有限的模式中。自对抗学习的示意和算法流程分别如图5和表4所示:

图5 : 自对抗学习(SAL)与传统 GAN 的对比
表4:自对抗学习(SAL)算法流程
本文在模拟数据集(Synthetic Dataset)和真实数据集(COCO & EMNLP WMT17)上进行了文本生成的实验,并与之前的文本生成 GAN 模型的效果进行比较,结果如表5、6所示。可以看到,本文提出的 SAL 算法在反应生成文本的质量和多样性的众多指标上比此前的文本 GAN 模型都有显著的提升。在未来,我们希望探索 SAL 训练机制在图像生成 GAN 领域的应用。

表5:不同文本 GAN 模型在模拟数据集上的表现比较

表6:不同文本 GAN 模型在真实数据集上的表现比较

4、VL-BERT:通用的视觉-语言预训练模型
论文地址:https://openreview.net/forum?id=SygXPaEYvH

适用于下游任务的通用特征表示预训练是深度网络成功的标志之一。在计算机视觉领域,深度网络在 ImageNet 数据集进行图像分类的预训练过程,被发现可广泛提高多种图像识别任务的效果。在自然语言处理领域中,Transformer 模型在大规模语料库中使用语言模型进行预训练的过程,也被证明可广泛提高多种自然语言处理任务的效果。
但对于计算机视觉和自然语言处理领域交叉的任务,例如图像标题生成、视觉问答、视觉常识推理等,缺少这种预训练的通用多模态特征表示。一般来说,此前的视觉-语言模型分别使用计算机视觉或自然语言处理领域中的预训练模型进行初始化,但如果目标任务数据量不足,模型容易过拟合从而损失性能。并且对于不同的视觉-语言任务,其网络架构一般是经过特殊设计的,因此很难通过视觉-语言联合预训练的过程帮助下游任务。
本文提出了一种可广泛应用于视觉-语言任务的预训练通用特征表示,称为 Visual-Linguistic BERT,简称 VL-BERT,其架构如下图所示:

图6:VL-BERT 模型架构
VL-BERT 的主干网络使用 Transformer Attention 模块,并将视觉与语言嵌入特征作为输入,其中输入的每个元素是来自句中单词或图像中的感兴趣区域(Region of Interests,简称 RoIs)。在模型训练的过程中,每个元素均可以根据其内容、位置、类别等信息自适应地聚合来自所有其他元素的信息。在堆叠多层 Transformer Attention 模块后,其特征表示即具有更为丰富的聚合、对齐视觉和语言线索的能力。
为了更好地建模通用的视觉-语言表示,本文在大规模视觉-语言语料库中对 VL-BERT进行了预训练。采用的预训练数据集为图像标题生成数据集 Conceptual Captions,其中包含了大约330万个图像-标题对。在预训练结束后,使用微调来进行下游任务的训练。实验证明此预训练过程可以显著提高下游的视觉-语言任务的效果,包括视觉常识推理(Visual Commonsense Reasoning)、视觉问答(Visual Question Answering)与引用表达式理解(Referring Expression Comprehension)。


ICLR 2020 系列论文解读

0、ICLR 2020 会议动态报道


疫情严重,ICLR2020 将举办虚拟会议,非洲首次 AI 国际顶会就此泡汤

疫情影响,ICLR 突然改为线上模式,2020年将成为顶会变革之年吗?

火爆的图机器学习,ICLR 2020上有哪些研究趋势?


1、直播


回放 | 华为诺亚方舟ICLR满分论文:基于强化学习的因果发现


2、论文解读
01.  一种镜像生成式机器翻译模型:MGNMT
02. 额外高斯先验目标,缓解负多样性无知
03. 引入额外门控运算,LSTM稍做修改,性能便堪比Transformer-XL
04. 并行蒙卡树搜索,性能无损,线性加速,勇闯「消消乐」1000关!
05. 元强化学习迎来一盆冷水: 不比元Q学习好多少
06. 用群卷积建立深度、等变的胶囊网络
07. | 谷歌推出分布式强化学习框架SEED,性能“完爆”IMPALA,可扩展数千台机器,还很便宜
08. Reformer ,一种高效的Transformer
09. 基于值函数的规划和强化学习的控制架构(视频直播)
10. 北大图灵班满分论文:基于计算约束下有用信息的信息论
11. 使用GAN进行高保真语音合成
12. 模型参数这么多,泛化能力为什么还能这么强?
13. 公平与精确同样重要!CMU提出学习公平表征方法,实现算法公平

14. 组合泛化能力太差?用深度学习融合组合求解器试试

15. 加速NAS,仅用0.1秒完成搜索

16. 华盛顿大学:图像分类中对可实现攻击的防御(视频解读)

17. 超越传统,基于图神经网络的归纳矩阵补全

18. 受启诺奖研究,利用格网细胞学习多尺度表达(视频解读)

19. 神经正切,5行代码打造无限宽的神经网络模型

20. 华为诺亚:巧妙思想,NAS与「对抗」结合,速率提高11倍

21. 抛开卷积,多头自注意力能够表达任何卷积操作
22. NAS 太难了,搜索结果堪比随机采样!华为给出 6 条建议
23 . 清华提 NExT 框架,用「神经元执行树」学习可解释性
24. 谷歌最新研究:用“复合散度”量化模型合成泛化能力
25. 完胜 BERT,谷歌最佳 NLP 预训练模型开源,单卡训练仅需 4 天
26.  FSNet:利用卷积核概要进行深度卷积神经网络的压缩
27. "同步平均教学"框架为无监督学习提供更鲁棒的伪标签
28. 快速神经网络自适应技术
28. 引入随机扰动,提高智能体泛化能力
30. Deformable Kernels,创意满满的可变形卷积核



AI 科技评论系列直播 
 

1、ACL 2020 - 复旦大学系列解读


直播主题:不同粒度的抽取式文本摘要系统

主讲人:王丹青、钟鸣

直播时间:4月 25 日,(周一晚) 20:00整。

 

直播主题:结合词典命名实体识别【ACL 2020 - 复旦大学系列解读之(二)】

主讲人:马若恬, 李孝男

直播时间:4月 26 日,(周一晚) 20:00整。

 

 

直播主题:ACL 2020 | 基于对抗样本的依存句法模型鲁棒性分析

【ACL 2020 - 复旦大学系列解读之(三)】

主讲人:曾捷航

直播时间:4月 27 日,(周一晚) 20:00整。


2、ICLR 2020 系列直播


直播主题:ICLR 2020丨Action Semantics Network: Considering the Effects of Actions in Multiagent Systems

主讲人:王维埙

回放链接:http://mooc.yanxishe.com/open/course/793

 

直播主题:ICLR 2020丨通过负采样从专家数据中学习自我纠正的策略和价值函数

主讲人:罗雨屏

回放链接:http://mooc.yanxishe.com/open/course/802(回时间:4月25日上午10点

 

直播主题:ICLR 2020丨分段线性激活函数塑造了神经网络损失曲面

主讲人:何凤翔

直播时间:4月24日 (周五晚) 20:00整



如何加入?

扫码关注[ AI研习社顶会小助手] 微信号,发送关键字“ICLR 2020+直播” 或 “ACL 2020+直播”,即可进相应直播群,观看直播和获取课程资料。

登录查看更多
0

相关内容

对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。 对抗样本是指通过在数据中故意添加细微的扰动生成的一种输入样本,能够导致神经网络模型给出一个错误的预测结果。 实质:对抗样本是通过向输入中加入人类难以察觉的扰动生成,能够改变人工智能模型的行为。其基本目标有两个,一是改变模型的预测结果;二是加入到输入中的扰动在人类看起来不足以引起模型预测结果的改变,具有表面上的无害性。对抗样本的相关研究对自动驾驶、智能家居等应用场景具有非常重要的意义。
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
158+阅读 · 2020年6月30日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
专知会员服务
102+阅读 · 2020年3月12日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
159+阅读 · 2019年12月21日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
ACL 2019 | 微软8篇精选论文解读,一览最新研究进展
微软研究院AI头条
12+阅读 · 2019年6月28日
CVPR 2019 | 微软亚洲研究院7篇精选论文解读
微软研究院AI头条
23+阅读 · 2019年6月18日
CVPR 2019 论文解读精选
AI研习社
7+阅读 · 2019年6月16日
本周NLP、CV、机器学习论文精选推荐
PaperWeekly
8+阅读 · 2018年12月21日
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
论文 | 15篇近期值得读的AI论文
黑龙江大学自然语言处理实验室
16+阅读 · 2018年2月12日
春节囤货清单 | 15篇近期值得读的AI论文
PaperWeekly
5+阅读 · 2018年2月8日
ACL 2017自然语言处理精选论文解读
人工智能头条
5+阅读 · 2017年9月13日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
4+阅读 · 2017年7月25日
VIP会员
相关VIP内容
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
158+阅读 · 2020年6月30日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
专知会员服务
102+阅读 · 2020年3月12日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
159+阅读 · 2019年12月21日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
相关资讯
ACL 2019 | 微软8篇精选论文解读,一览最新研究进展
微软研究院AI头条
12+阅读 · 2019年6月28日
CVPR 2019 | 微软亚洲研究院7篇精选论文解读
微软研究院AI头条
23+阅读 · 2019年6月18日
CVPR 2019 论文解读精选
AI研习社
7+阅读 · 2019年6月16日
本周NLP、CV、机器学习论文精选推荐
PaperWeekly
8+阅读 · 2018年12月21日
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
论文 | 15篇近期值得读的AI论文
黑龙江大学自然语言处理实验室
16+阅读 · 2018年2月12日
春节囤货清单 | 15篇近期值得读的AI论文
PaperWeekly
5+阅读 · 2018年2月8日
ACL 2017自然语言处理精选论文解读
人工智能头条
5+阅读 · 2017年9月13日
Top
微信扫码咨询专知VIP会员