提升效率必备,9 篇论文帮你积累知识点 | PaperDaily #06

2017 年 10 月 27 日 PaperWeekly 让你更懂AI的



在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。


在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。


点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。

这是 PaperDaily 的第  6 篇文章

[ 自然语言处理 ]

Multi-Task Learning for Speaker-Role Adaptation in Neural Conversation Models

@paperweekly 推荐

#Seq2Seq

多任务学习是个非常流行的研究方法,本文针对对话生成任务,给出了一种 seq2seq+autoencoder 的多任务学习方案,取得了一定的效果。

论文链接

http://www.paperweekly.site/papers/988

Supervised Speech Separation Based on Deep Learning - An Overview

@Synced 推荐

#Supervised Learning

近年来,基于深度学习的监督语音分离发展很快。本文作者对今年相关研究进行概述,介绍了语音分离的背景、监督语音分离的形成和组成部分,从历史的角度叙述了监督语音分离的技术发展过程。本文对监督语音分离的概述还包括分离算法和泛化等问题。

论文链接

http://www.paperweekly.site/papers/992

Multi-Task Label Embedding for Text Classification

@jerryshi 推荐

#Text Classification

本文不同于以为文本分类中对待标签或类别的方法,传统方式是对标签进行 one-hot 编码,而该文章的思路是对标签也进行语义表示,从而在标签间获得丰富的信息,以提高最终任务的效果。

论文链接

http://www.paperweekly.site/papers/990


[ 计算机视觉 ]

VisDA: The Visual Domain Adaptation Challenge

@corenel 推荐

#Domain Adaptation

domain adaption 领域的一个新的数据集,数据是从仿真到实物的,有分类任务与分割任务两个部分,比较贴近实际项目,值得在发新文章的时候作为实验之一。

论文链接

http://www.paperweekly.site/papers/959


Interpreting CNN knowledge via an Explanatory Graph

@AkiyamaYukari 推荐

#Knowledge Representation

通过一个图模型来学习/可视化已经训练好的卷积神经网络中的每一层(中层比较有价值)的每个滤窗(fliter)所学习到的图像特征,在可解释 AI 方面的新的一步。 是作者下一篇文章的铺垫。

论文链接

http://www.paperweekly.site/papers/966


ReLayNet: Retinal Layer and Fluid Segmentation of Macular Optical Coherence Tomography using Fully Convolutional Network

@atomwh 推荐

#Medical Image Analysis

本文提出了一种新的深度学习网络结构 ReLayNet,用于正常人和 DME 患者的 OCT 图像层次分割。ReLayNet 借鉴 U-Net 的思想,分为下采样和上采样两个步骤,在训练过程中同时使用了交叉熵和 Dice overlap loss 函数进行优化。

实验结果与 5 个 state-of-the-art 的分割方法进行比较,该方法具有更好的表现。而且该文章使用的是公开的数据集,值得做为实现对比的论文。

论文链接

http://www.paperweekly.site/papers/986


[ 机器学习 ]

Learning Social Image Embedding with Deep Multimodal Attention Networks

@zhkun 推荐

#Multimodal

文章提出了一种新的学习 social image embedding 的方法,针对以前的基于网络结构和基于内容的方法,文中的方法可以同时对关系和内容进行学习,是一种 multimodal 的方法,将图像和文字联合起来考虑,从而可以更加精准的理解图像的 embedding,而且文章条理清晰,写作上也很值得学习。

论文链接

http://www.paperweekly.site/papers/989


A Geometric View of Optimal Transportation and Generative Model

@JadeLi 推荐

#Deep Reinforcement Learning

从使用变分法求解凸几何中亚历山大问题这个视角出发,讨论了最优传输定理与解凸几何问题的联系,从而给了生成式模型一个几何视角来解释与研究。文章将 GAN(主要是基于 WGAN)的训练过程,等效为求最优传输路径,并由此解释了 GAN 很多性能问题。 

特别地,文章提出 Wasserstein GAN 中生成器和识别器的竞争理论上不需要,即交替训练没有起作用。并做实验自己的几何方法在 Multiple cluster 时对分布的度量优于 WGAN。 

个人觉得本文关于 GAN 的类比过于严厉,但是无论如何,这篇文章对于 GAN 的视角值得关注。鉴于 GAN 一直囿于纳什均衡解的存在性、算法收敛性,以及机器学习本身的黑箱问题,本文从理论角度体现出来的 GAN 的问题也亟待进一步探索。

论文链接

http://www.paperweekly.site/papers/934


A systematic study of the class imbalance problem in convolutional neural networks

@paperweekly 推荐

#CNN

图像分类问题中多个分类下样本不均衡问题对于 CNN 模型的影响研究。

论文链接

http://www.paperweekly.site/papers/955


本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!

       

                           游戏时间

 GAN 还是不 GAN?

GAN主题论文共读小组


论文提名√在线投票√论文共读


活动形式:语音直播 + 协同批注

 

 游戏规则 

1. 自由推荐任何与GAN有关的论文

2. 投票支持你想读的论文

3. 每周六根据投票结果选出本期论文

 

长按识别二维码,马上报名

*添加好友请注明“GAN”






关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。



▽ 点击 | 阅读原文 | 查看更多优质论文

登录查看更多
3

相关内容

多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
医学图像分割的深度学习解决方案综述
专知会员服务
86+阅读 · 2020年2月14日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
【开源书】PyTorch深度学习起步,零基础入门(附pdf下载)
专知会员服务
107+阅读 · 2019年10月26日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
近期必读的12篇「推荐系统」相关论文
PaperWeekly
32+阅读 · 2019年3月7日
选对论文,效率提升50% | 本周值得读
PaperWeekly
5+阅读 · 2018年3月9日
本周不容错过的的9篇NLP论文 | PaperDaily #21
PaperWeekly
22+阅读 · 2017年12月1日
Arxiv
5+阅读 · 2019年9月25日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Arxiv
12+阅读 · 2019年2月26日
Arxiv
3+阅读 · 2018年8月27日
VIP会员
Top
微信扫码咨询专知VIP会员