2019-07-15

【1】2019-07-12 Learning Self-Correctable Policies and Value Functions from Demonstrations with Negative Sampling

作者来自:普林斯顿大学、伯克利、斯坦福大学

待解决的问题:

解决方法:

1) 基本思路:

2)可自我修正的策略

3) 整体算法如下:

【2】2019-07-12 Generative Modeling by Estimating Gradients of the Data Distribution

作者来自:斯坦福大学

待解决的问题:

解决方法:

1) 基本思路:

2) 提出退火朗之万动力学采样(Annealed Langevin dynamics sampling):

【3】2019-07-12 R-Transformer: Recurrent Neural Network Enhanced Transformer

作者来自:密歇根州立大学

待解决的问题:

解决方法:

1) 整体结构图:

2) 局部RNN:

【4】2019-07-06 Generating Sentences from Disentangled Syntactic and Semantic Spaces

作者来自:南京大学、今日头条、滑铁卢大学

待解决的问题:

解决方法:

1) 整体架构图:

其中,

2) 线性化的表征:

【5】2019-07-12 DisCoRL: Continual Reinforcement Learning via Policy Distillation

作者来自:巴黎高科国立高等先进技术学院

待解决的问题:

解决方法:

1) 整体结构图:

【6】2019-07-12 Virtual Adversarial Lipschitz Regularization

作者来自:Robert Bosch Kft (匈牙利的一家公司,单位一般,主要是看研究的方向)

待解决的问题:

解决方法:

1) 基本思路,以及相应的公式:

【7】2019-07-12 Gated-SCNN: Gated Shape CNNs for Semantic Segmentation

作者来自:英伟达、滑铁卢大学、多伦多大学

待解决的问题:

解决方法:

1) 整体架构图如下:

2) 门卷积层(Gated Convolutional Layer,GCL)

【8】2019-07-12 Solving Hard Coreference Problems

作者来自:伊利诺伊大学

待解决的问题:

解决方法:

1) 首先,作者定义了两类预测模式:

其中,样例1.2、2.2如下:

2) 选择Integer Linear Programming (ILP) 作为指代消解的处理架构:

其中,预测模式的限定如下:

发布于 2019-07-15 21:12