今日 Paper | 医学图像中的深度学习;元强化学习;深度神经网络的无损压缩等

2020 年 1 月 7 日 AI科技评论
为了帮助各位学术青年更好地学习前沿研究成果和技术,AI科技评论联合Paper 研习社(paper.yanxishe.com),重磅推出【今日 Paper】栏目, 每天都为你精选关于人工智能的前沿学术论文供你学习参考。 以下是今日的精选内容——

  目录

  • A Loss-Function for Causal Machine-Learnin

  • Meta Reinforcement Learning with Autonomous Inference of Subtask Dependencie

  • Wide Neural Networks with Bottlenecks are Deep Gaussian Processe

  • DAWSON: A Domain Adaptive Few Shot Generation Framewor

  • Multi-organ Segmentation over Partially Labeled Datasets with Multi-scale Feature Abstractio

  • Deep Learning in Medical Image Registration: A Revie

  • Fast and deep neuromorphic learning with time-to-first-spike codin

  • End-to-end Named Entity Recognition and Relation Extraction using Pre-trained Language Model

  • Localized Debiased Machine Learning: Efficient Estimation of Quantile Treatment Effects, Conditional Value at Risk, and Beyond

  因果机器学习的损失函数

论文名称: A Loss-Function for Causal Machine-Learning
作者: Yang I-Sheng
发表时间: 2020/1/2
论文链 接: https://paper.yanxish e.com/review/8168
推荐理由: 因果机器学习与预测治疗的净效果(真实提升)有关。 给定治疗组和对照组的数据,它类似于标准的监督 学习问题。 不幸的是,由于数据中缺少逐点真实值,因此没有类似定义明确的损失函数。 由于缺乏这种损失功能,现代机器学习的许多进步不能直接应用。
作者提出了一种在这种情况下定义损失函数的新颖方法,该方法等于标准回归问题中的均方误差(MSE)。 该损失函数是普遍适用的,因此提供了一个通用标准来评估可预测真实升力的任何模型/策略的质量。 我们证明,尽管定义新颖,但仍然可以直接对这种损失函数执行梯度下降以找到最佳拟合。 这导致了一种新的方法来训练任何基于参数的模型(例如深度神经网络)来解决因果机器学习问题而无需通过元学习器策略。
                       
      

  具有子任务依赖项的自主推断的元强化学习

论文名称: Meta Reinforcement Learning with Autonomous Inference of Subtask Dependencies
作者: Sohn Sungryull /Woo Hyunjae /Choi Jongwook /Lee Honglak
发表时间: 2020/1/1
论文链接: https://paper.yanxishe.com/review/8167
推荐理由: 作者提出并解决了一个新颖的快照式RL问题,其中任务以子任务图为特征,该子任务图描述了代理未知的一组子任务及其相关性。 代理需要在适应阶段的几个情节中快速适应任务,以使测试阶段的收益最大化。 作者没有直接学习元策略,而是开发了带有子任务图推理(MSGI)的元学习器,它通过与环境交互来推断任务的潜在参数,并在给定潜在参数的情况下最大化回报。
为了促进学习,作者采用了固有的奖励方式,该奖励方式受到鼓励有效探索的上限置信度(UCB)的启发。 作者在两个网格世界域和StarCraft II环境上的实验结果表明,与现有的元RL和分层RL方法相比,该方法能够准确地推断潜在任务参数,并且能够更有效地进行自适应。

  具有瓶颈的宽泛神经网络是高斯过程

论文名称: Wide Neural Networks with Bottlenecks are Deep Gaussian Processes
作者: Agrawal Devanshu /Papamarkou Theodore /Hinkle Jacob
发表时间: 2020/1/3
论文链接: https://paper.yanxishe.com/review/8169
推荐理由: 最近,在神经网络的“宽限度”方面有很多工作,其中贝叶斯神经网络(BNN)被证明会收敛到高斯过程(GP),因为所有隐藏层都被发送到无限宽。 但是,这些结果不适用于要求一个或多个隐藏层保持狭窄的体系结构。
在本文中,作者考虑了BNN的宽限制,其中一些隐藏层(称为“瓶颈”)以有限的宽度保持。 结果是GP的组合,作者称之为“瓶颈神经网络高斯过程”(瓶颈NNGP)。 尽管直观,但证明的精妙之处在于表明,网络组成的广泛限制实际上就是限制性GP的组成。 作者还从理论上分析了单瓶颈NNGP,发现该瓶颈在多输出网络的输出之间引起依赖性,该输出在无限的瓶颈后深度持续存在,并防止网络的内核在无限的瓶颈后失去鉴别力,深度。

  DAWSON:域自适应少量镜头生成框架

论文名称: DAWSON: A Domain Adaptive Few Shot Generation Framework
作者: Liang Weixin /Liu Zixuan /Liu Can
发表时间: 2020/1/2
论文链接: https://paper.yanxishe.com/review/8170
推荐理由: 从头开始为新域训练生成对抗网络(GAN)需要大量的训练数据和几天的训练时间。 为此,作者提出了DAWSON,这是一种基于元学习的GAN领域自适应FewShot生成框架。 应用元学习GAN的主要挑战是,由于GAN的无可能性性质,通过在开发集上对其进行评估来获得生成器的梯度。
为了解决这一挑战,作者提出了另一种GAN训练程序,该程序自然地将GAN的两步训练程序与元学习算法的两步训练程序结合在一起。 DAWSON是一个即插即用框架,它支持广泛的元学习算法系列以及具有架构变量的各种GAN。 在DAWSON的基础上,作者还提出了MUSIC MATINEE,这是第一个少拍音乐生成模型。
作者的实验表明,MUSIC MATINEE可以仅使用目标域中的数十首歌曲就快速适应新域。 其表明,DAWSON可以通过MNIST数据集中的四个样本来学习生成新的数字。 作者在PyTorch和Tensorflow中发布了DAWSON的源代码实现,生成了两种流派的音乐样本和闪电视频。                                      

  具有多尺度特征抽象的部分标记数据集的多器官分割

论文名称: Multi-organ Segmentation over Partially Labeled Datasets with Multi-scale Feature Abstraction
作者: Fang Xi /Yan Pingkun
发表时间: 2020/1/1
论文链接: https://paper.yanxishe.com/review/8171
推荐理由: 本文提出了一种统一的训练策略,该策略使新型多尺度深层神经网络能够在多个部分标记的数据集上进行训练,以进行多器官分割。 多尺度上下文信息对于像素级标签预测即图像分割有效。 但是,这些重要信息仅被现有方法部分利用。
在本文中,作者提出了一种用于多尺度特征抽象的新网络体系结构,该体系结构将金字塔特征分析集成到了图像分割模型中。 为了弥合直接合并不同尺度特征引起的语义鸿沟,提出了一种相等的卷积深度机制。 此外,作者建立了深层的监督机制,以细化不同规模的产出。 为了充分利用不同比例的细分功能,作者设计了一个自适应加权层,以自动方式融合输出。 所有这些特征一起集成到金字塔输入金字塔输出网络中,以进行有效的特征提取。 最后但并非最不重要的一点是,为了减轻在训练深度分割模型中对完全注释数据的饥饿感,提出了一种统一的训练策略,以在多个部分标记的数据集上训练一个分割模型,以进行具有新颖目标自适应损失的多器官分割。 作者的方法在包括BTCV,LiTS,KiTS和Spleen在内的四个可公开获得的数据集上进行了评估,其中取得了非常可观的性能。 这项工作的源代码在下方URL上公开共享,以供其他人轻松地复制工作并使用引入的机制构建自己的模型。
                                     

  拓展阅读

由于篇幅有限,剩余五篇的论文推荐精选请扫描下方二维码继续阅读——
  • 医学图像配准中的深度学习:一份综述

    论文名称:Deep Learning in Medical Image Registration: A Review

  • 快速和深度神经形态学习,采用首次尖峰时间编码

    论文名称:Fast and deep neuromorphic learning with time-to-first-spike coding

  • 使用预先训练的语言模型进行端到端命名实体识别和关系提取

    论文名称:End-to-end Named Entity Recognition and Relation Extraction using Pre-trained Language Models

  • 本地化的无偏差机器学习:有效评估分位数治疗效果,处于风险中的条件值以及其他

    论文名称:Localized Debiased Machine Learning: Efficient Estimation of Quantile Treatment Effects, Conditional Value at Risk, and Beyond

  • 深度神经网络的无损压缩

    文名称:Lossless Compression of Deep Neural Networks


(扫码直达,可直接跳转下载论文)

阅读原文浏览剩余五篇论文推荐

登录查看更多
3

相关内容

Meta RL(Meta Reinforcement Learning)是Meta Learning应用到Reinforcement Learning的一个研究方向,核心的想法就是希望AI在学习大量的RL任务中获取足够的先验知识Prior Knowledge然后在面对新的RL任务时能够 学的更快,学的更好,能够自适应新环境!
最新《医学图像深度语义分割》综述论文
专知会员服务
94+阅读 · 2020年6月7日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
38+阅读 · 2020年3月9日
专知会员服务
44+阅读 · 2020年3月6日
ICLR 2020 高质量强化学习论文汇总
极市平台
12+阅读 · 2019年11月11日
从 ICLR 2019 一览小样本学习最新进展!
AI科技评论
15+阅读 · 2019年6月9日
深度学习的图像修复
AI研习社
21+阅读 · 2019年3月28日
2018年深度学习优化算法最新综述
计算机视觉战队
9+阅读 · 2018年12月11日
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
【教程】如何估算深度神经网络的最优学习率
GAN生成式对抗网络
5+阅读 · 2017年11月18日
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
Arxiv
22+阅读 · 2018年8月30日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员