126篇殿堂级深度学习论文分类整理,从入门到应用

2017 年 12 月 27 日 全球人工智能 雷课


-欢迎加入AI技术专家社群>>

- 日薪5K-10K招兼职AI讲师>>

如果你有非常大的决心从事深度学习,又不想在这一行打酱油,那么研读大牛论文将是不可避免的一步。而作为新人,你的第一个问题或许是: “论文那么多,从哪一篇读起“本文将试图解决这个问题-文章标题本来是:‘从入门到绝望,无止境的深度学习论文’请诸位备好道具,开启头悬梁锥刺股的学霸姿势。


开个玩笑。但对非科班出身的开发者而言,读论文的确可以成为一件很痛苦的事。但好消息来了 - 为避免初学者陷入迷途苦海,昵称为songrotek的学霸在GitHub发布了他整理的深度学习路线图,分门别类梳理了新入门者最需要学习的DL论文,又按重要程度给每篇论文打上星星。


截至目前,这份  DL论文路线图已在GitHub收获了近万颗星星好评,人气极高。小雷感到非常有必要对大家进行介绍。闲话少说,该路线图根据以下四项原则而组织:从大纲到细节,从经典到前沿,从一般到具体领域,关注最新研究突破。有许多论文很新但非常值得一读。


1深度学习历史和基础

1.0书籍


[0]  Bengio,Yoshua,伊恩J.古德费洛,亚伦库维尔。 “深学习”。一本MIT出版社的书。(2015年)。(Ian Goodfellow等大牛所的教科书,乃深度学习圣经。你可以同时研习本本以及以下论文)

地址:
https  //github.com/HFTrader/DeepLearningBook/raw/master/DeepLearningBook.pdf


1.1调查


[1]  LeCun,晏,约书亚·本焦,和杰弗里·辛顿。“深入学习” Nature 521.7553(2015):436-444。[pdf](三巨头做的调查)

地址:
http : //www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf


1.2深度置信网络(DBN,深度学习前夜的里程碑)


[2]  Hinton,Geoffrey E.,Simon Osindero和Yee-Whye Teh。“深度信仰网络的快速学习算法”。神经计算18.7(2006):1527-1554。[pdf](深度学习前夜)

地址:
http : //www.cs.toronto.edu/~hinton/absps/ncfast.pdf


[3]  Hinton,Geoffrey E.和Ruslan R. Salakhutdinov。“用神经网络降低数据的维数” 科学313.5786(2006):504-507。[pdf](里程碑,展示了深度学习的前景)

地址:
http : //www.cs.toronto.edu/~hinton/science.pdf


1.3 ImageNet的进化(深度学习从此萌发)


[4]  Krizhevsky,亚历克斯,Ilya Sutskever和Geoffrey E. Hinton。“深度卷积神经网络的图像分类”。神经信息处理系统的进展。2012. [pdf](AlexNet,深度学习突破)

地址:
http : //papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf


[5]  西蒙尼,凯伦和安德鲁Zisserman。“用于大规模图像识别的非常深的卷积网络”。arXiv预印本arXiv:1409.1556(2014)。[pdf](VGGNet,神经网络变得很深层)

地址:
https  //arxiv.org/pdf/1409.1556.pdf


[6]  Szegedy,Christian,等人。“进一步卷积。” IEEE计算机视觉和模式识别会议论文集。2015年。[pdf](GoogLeNet)

地址:
http : //www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf


[7] 他,开明,等。“图像识别的深度残留学习” arXiv预印本arXiv:1512.03385(2015)。[pdf](ResNet,特别深的神经网络,CVPR最佳论文)

地址:
https  //arxiv.org/pdf/1512.03385.pdf


1.4语音识别的进化


[8]  Hinton,Geoffrey,等人。“语音识别声学建模的深层神经网络:四个研究小组的共同观点”。IEEE Signal Processing Magazine 29.6(2012):82-97。[pdf](语音识别的突破)

地址:

http://cs224d.stanford.edu/papers/maas_paper.pdf


[9]  格雷夫斯,亚历克斯,阿卜杜勒拉赫曼穆罕默德和杰弗里辛顿。“深度回归神经网络的语音识别” IEEE声学,语音和信号处理国际会议。IEEE,2013. [pdf](RNN)

地址:

http://arxiv.org/pdf/1303.5778.pdf


[10] 格雷夫斯,亚历克斯和Navdeep Jaitly。“使用递归神经网络实现端到端语音识别” ICML。卷。14. 2014. [pdf]

地址:
http  //www.jmlr.org/proceedings/papers/v32/graves14.pdf


Sak,Haim等人[11] “用于语音识别的快速准确的递归神经网络声学模型”。arXiv预印本arXiv:1507.06947(2015)。[pdf](谷歌语音识别系统)

地址:
http  //arxiv.org/pdf/1507.06947


[12]  Amodei,Dario等人。“深度演讲2:英文和普通话的端到端语音识别” arXiv预印本arXiv:1512.02595(2015)。[pdf](百度语音识别系统)

地址:
https  //arxiv.org/pdf/1512.02595.pdf


[13]  W. Xiong,J. Droppo,X. Huang,F. Seide,M. Seltzer,A. Stolcke,D. Yu,G. Zweig“在会话语音识别中实现人类奇偶性”。arXiv预印本arXiv:1610.05256(2016)。[pdf](最前沿的语音识别,微软)

地址:
https  //arxiv.org/pdf/1610.05256v1

研读以上论文之后,你将对深度学习历史,模型的基本架构(包括  CNN,RNN,LSTM)有一个基础的了解,并理解深度学习如何应用于图像和语音识别问题。接下来的论文,将带你深入探索深度学习方法,在不同领域的应用和前沿尖端技术。我建议,你可以根据兴趣和工作/研究方向进行选择性的阅读。


2深度学习方法

2.1模型


[14]  Hinton,Geoffrey E.等人 “通过防止特征探测器的共同适应改进神经网络”。arXiv预印本arXiv:1207.0580(2012)。(pdf)(Dropout)

地址:
https  //arxiv.org/pdf/1207.0580.pdf


[15]  Srivastava,Nitish,等。“辍学:一种简单的方法来防止神经网络过度配合。” 机器学习研究杂志15.1(2014):1929-1958。[PDF]

地址:
http : //www.jmlr.org/papers/volume15/srivastava14a.old/source/srivastava14a.pdf


[16]  约费,塞吉,和Christian Szegedy。批量标准化:通过减少内部协变量来加速深度网络培训。arXiv预印本arXiv:1502.03167(2015)。[pdf](2015年的杰出研究)

地址:
http  //arxiv.org/pdf/1502.03167


[17]  BA,麦雷,杰米瑞恩基罗斯,和Geoffrey E.欣顿。“图层标准化”。arXiv预印本arXiv:1607.06450(2016)。(批量标准化的更新)

地址:
https ://arxiv.org/pdf/1607.06450.pdf ? utm_source = sciontist.com & utm_medium = refer &utm_campaign = promote


[18]  Courbariaux,Matthieu等。“二值化神经网络:训练神经网络的权重和激活限制为+ 1或1。[pdf](新模型,快)

地址:
https  //pdfs.semanticscholar.org/f832/b16cb367802609d91d400085eb87d630212a.pdf


Jaderberg,Max等人[19] “使用合成梯度解耦神经接口” arXiv预印本arXiv:1608.05343(2016)。[pdf](训练方法的创新,研究相当不错)

地址:
https  //arxiv.org/pdf/1608.05343


[20] 陈天棋,伊恩·古德费洛和乔纳森·斯伦斯。“Net2net:通过知识转移加速学习” arXiv预印本arXiv:1511.05641(2015)。[pdf](改进此前的训练网络,来缩短训练周期)

地址:
https  //arxiv.org/abs/1511.05641


[21]  魏涛,等。“网络形态主义” arXiv预印本arXiv:1603.01670(2016)。[pdf](改进此前的训练网络,来缩短训练周期)

地址:
https  //arxiv.org/abs/1603.01670


2.2优化优化


[22]  Sutskever,伊利亚,等。“关于初始化和深入学习势头的重要性。” ICML(3)28(2013):1139-1147。[动力优化器]

地址:
http : //www.jmlr.org/proceedings/papers/v28/sutskever13.pdf


  玛,迪代里克和吉米巴。“亚当:随机优化的一种方法”。arXiv预印本arXiv:1412.6980(2014)。[pdf](也许目前最常用)

地址:
http  //arxiv.org/pdf/1412.6980


[24]  Andrychowicz,Marcin等人。“学习通过梯度下降学习梯度下降。”arXiv预印本arXiv:1606.04474(2016)。[pdf](神经优化,惊人的工作)

地址:
https : //arxiv.org/pdf/1606.04474


[25]  Han,Song,Huizi Mao和William J. Dally。“深层压缩:用修剪,经过训练的量化和霍夫曼编码来压缩深层神经网络。CoRR,abs / 1510.00149 2(2015)。[pdf](ICLR最佳论文,让NN快速运行的新方向,DeePhi Tech Startup)

地址:
https  //pdfs.semanticscholar.org/5b6c/9dda1d88095fa4aac1507348e498a1f2e863.pdf


[26]  Iandola,Forrest N.,et al。“SqueezeNet:AlexNet级精度,参数少于50x,模型大小小于1MB” arXiv预印本arXiv:1602.07360(2016)。[pdf](也是优化NN的新方向,DeePhi Tech Startup)

地址:
http  //arxiv.org/pdf/1602.07360


2.3无监督学习/深度生成模型


[27]  乐,五富国“建设采用大规模无监督学习高层次的特点。” IEEE声学,语音和信号处理国际会议。IEEE,2013. [pdf](里程碑,吴恩达,谷歌大脑,猫)

地址:
http : //arxiv.org/pdf/1112.6209.pdf&embed


[28] 金玛,Diederik P.,和Max威灵。“自动编码变分贝叶斯”。arXiv预印本arXiv:1312.6114(2013)。[PDF](VAE)

地址:
http : //arxiv.org/pdf/1312.6114


 Goodfellow,Ian等人[29]“生成对抗网”。神经信息处理系统的进展。2014年。[pdf](GAN,很酷的想法)

地址:
http : //papers.nips.cc/paper/5423-generative-adversarial-nets.pdf


[30] 雷德福,亚历克,卢克梅斯和Soumith Chintala。“深度卷积生成敌对网络的无监督表示学习”。arXiv预印本arXiv:1511.06434(2015)。[pdf](DCGAN)

地址:
http : //arxiv.org/pdf/1511.06434


[31] 格里,卡罗尔,等。“DRAW:用于图像生成的经常性神经网络”。arXiv预印本arXiv:1502.04623(2015)。[pdf](VAE注意,很出色的研究)

地址:
http : //jmlr.org/proceedings/papers/v37/gregor15.pdf


[32] 奥德,亚伦范登,纳尔·卡尔布伦纳和科拉·库夫克库奥卢。“像素递归神经网络”。arXiv预印本arXiv:1601.06759(2016)。[pdf](PixelRNN)

地址:
http  //arxiv.org/pdf/1601.06759


[33]  Oord提供,阿龙范登,等人。“条件图像生成用PixelCNN解码器”。arXiv预印本arXiv:1606.05328(2016)。[pdf](PixelCNN)

地址:
https  //arxiv.org/pdf/1606.05328


2.4递归神经网络(RNN)/序列 - 序列模型


[34] 格雷夫斯,亚历克斯。“用循环神经网络生成序列” arXiv预印本arXiv:1308.0850(2013)。[pdf](LSTM,效果很好,展示了RNN的性能)

地址:
http  //arxiv.org/pdf/1308.0850


Cho,Kyunghyun等人[35] “学习使用RNN编码器 - 解码器进行统计机器翻译的短语表示”。arXiv预印本arXiv:1406.1078(2014)。(pdf)(第一篇Sequence-to-Sequence的论文)

地址:
http  //arxiv.org/pdf/1406.1078


[36]  Sutskever,伊利亚,奥里奥尔Vinyals和杜国安V.勒。“用神经网络进行序列学习的顺序” 神经信息处理系统的进展。(pdf)(杰出研究)

地址:
http : //papers.nips.cc/paper/5346-information-based-learning-by-agents-in-unbounded-state-spaces.pdf


[37]  Bahdanau,Dzmitry,KyungHyun Cho和Yoshua Bengio。“神经机器翻译联合学习对齐和翻译”。arXiv预印本arXiv:1409.0473(2014)。[PDF]

地址:
https  //arxiv.org/pdf/1409.0473v7.pdf


[38]  Vinyals,Oriol和Quoc Le。“神经对话模型” arXiv预印本arXiv:1506.05869(2015)。(pdf)(Seq-to-Seq聊天机器人)

地址:
http ://arxiv.org/pdf/1506.05869.pdf%20( http://arxiv.org/pdf/1506.05869.pdf)


2.5神经网络图灵机


[39]  格雷夫斯,亚历克斯,格雷格韦恩,伊沃丹尼赫卡。“神经图灵机” arXiv预印本arXiv:1410.5401(2014)。(pdf)(未来计算机的基础原型机)

地址:
http : //arxiv.org/pdf/1410.5401.pdf


[40]  扎伦巴,沃伊切赫和伊利亚·苏库克维尔。“强化学习神经图灵机” arXiv预印本arXiv:1505.00521 362(2015)。[PDF]

地址:
https  //pdfs.semanticscholar.org/f10e/071292d593fef939e6ef4a59baf0bb3a6c2b.pdf


[41]  威斯顿,贾森,住友乔普拉和安托万博德斯。“内存网络” arXiv预印本arXiv:1410.3916(2014)。[PDF]

地址:
http : //arxiv.org/pdf/1410.3916


[42]  Sukhbaatar,Sainbayar,Jason Weston和Rob Fergus。“端到端的内存网络” 神经信息处理系统的进展。2015年。[pdf]

地址:
http : //papers.nips.cc/paper/5846-end-to-end-memory-networks.pdf


[43]  Vinyals,Oriol,Meire Fortunato和Navdeep Jaitly。“指针网络” 神经信息处理系统的进展。2015年。[pdf]

地址:
http : //papers.nips.cc/paper/5866-pointer-networks.pdf


[44]  格雷夫斯,亚历克斯,等。“使用具有动态外部存储器的神经网络的混合计算”。自然(2016)。[pdf](里程碑,把以上论文的想法整合了起来)

地址:
https  //www.dropbox.com/s/0a40xi702grx3dq/2016-graves.pdf


2.6深度强化学习


[45]  Mnih,Volodymyr,等。“深入强化学习,玩雅典娜”。arXiv预印本arXiv:1312.5602(2013)。[pdf])(第一个以深度强化学习为题的论文)

地址:
http : //arxiv.org/pdf/1312.5602.pdf


[46]  Mnih,Volodymyr等人 “通过深入强化学习来控制人的层面” Nature 518.7540(2015):529-533。[pdf](里程碑)

地址:
https  //storage.googleapis.com/deepmind-data/assets/papers/DeepMindNature14236Pa.p.pdf


[47] 王子瑜,Nando de Freitas和Marc Lanctot。“为深入强化学习而决定网络架构” arXiv预印本arXiv:1511.06581(2015)。[pdf](ICLR最佳论文,很棒的想法)

地址:
http : //arxiv.org/pdf/1511.06581


[48]  Mnih,Volodymyr等。“深度强化学习的异步方法”。arXiv预印本arXiv:1602.01783(2016)。[pdf](前沿方法)

地址:
http  //arxiv.org/pdf/1602.01783


[49]  Lillicrap,Timothy P.等。“强化学习的持续控制” arXiv预印本arXiv:1509.02971(2015)。(DDPG)

地址:
http  //arxiv.org/pdf/1509.02971


 顾史祥等[50] “基于模型加速的持续深度Q学习” arXiv预印本arXiv:1603.00748(2016)。[pdf](NAF)

地址:
http : //arxiv.org/pdf/1603.00748


舒尔曼,约翰等人[51] “信任区域政策优化” CoRR,abs / 1502.05477(2015)。[pdf](TRPO)

地址:
http  //www.jmlr.org/proceedings/papers/v37/schulman15.pdf


[52]  银,大卫,等人。“用深度神经网络和树搜索来掌握Go的游戏。” Nature 529.7587(2016):484-489。[pdf](AlphaGo)

地址:
http : //willamette.edu/~levenick/cs448/goNature.pdf


2.7深度迁移学习/终生学习/强化学习


[53]  Bossio,Yoshua。“深入学习无监督和转移学习的表现” ICML Unsupervised and Transfer Learning 27(2012):17-36。(这是一个教程)

地址:
http : //www.jmlr.org/proceedings/papers/v27/bengio12a/bengio12a.pdf


[54] 白银丹尼尔,杨强,李良好。“终身机器学习系统:超越学习算法”。AAAI春季研讨会:终身机器学习。(pdf)(对终生学习的简单讨论)

地址:
http : //citeseerx.ist.psu.edu/viewdoc/download? doi=10.1.1.696.7800&rep=rep1&type= pdf


[55]  Hinton,Geoffrey,Oriol Vinyals和Jeff Dean。“在神经网络中提炼知识” arXiv预印本arXiv:1503.02531(2015)。[pdf](大神们的研究)

地址:
http  //arxiv.org/pdf/1503.02531


Rusu,Andrei A.等人[56] “政策蒸馏” arXiv预印本arXiv:1511.06295(2015)。[pdf](RL领域)

地址:
http  //arxiv.org/pdf/1511.06295


[57]  Parisotto,Emilio,吉米雷巴和Ruslan Salakhutdinov。“演员 - 模仿:深度多任务和转移强化学习” arXiv预印本arXiv:1511.06342(2015)。[pdf](RL领域)

地址:
http  //arxiv.org/pdf/1511.06342


[58]  Rusu,Andrei A.等。“渐进神经网络” arXiv预印本arXiv:1606.04671(2016)。[pdf](杰出研究,很新奇的想法)

地址:
https  //arxiv.org/pdf/1606.04671


2.8 One Shot深度学习


[59] 湖,Brenden M.,Ruslan Salakhutdinov和Joshua B. Tenenbaum。“通过概率程序入门进行人类概念学习” 科学350.6266(2015):1332-1338。[pdf](不含深度学习但值得一读)

地址:
http : //clm.utexas.edu/compjclub/wp-content/uploads/2016/02/lake2015.pdf


[60] 科赫,格雷戈里,理查德泽梅尔和鲁斯兰萨拉胡季诺夫。“连体图像识别的连体神经网络”(2015)[pdf]

地址:
http : //www.cs.utoronto.ca/~gkoch/files/msc-thesis.pdf


[61]  桑托罗,亚当,等。“记忆增强神经网络的一次学习”。arXiv预印本arXiv:1605.06065(2016)。[pdf](one shot学习的基础一步)

地址:
http  //arxiv.org/pdf/1605.06065


[62]  Vinyals,Oriol等。“匹配网络进行一次性学习”。arXiv预印本arXiv:1606.04080(2016)。[PDF]

地址:
https  //arxiv.org/pdf/1606.04080


[63] 哈里哈兰,巴拉特和罗斯·吉尔希克。“低射击视觉对象识别”。arXiv预印本arXiv:1606.02819(2016)。[pdf](通向更大规模数据的一步)

地址:
http  //arxiv.org/pdf/1606.02819


3应用

3.1自然语言处理(NLP)


[1] 安托万Bordes,等人。“开放文本语义分析的词义联合学习”。AISTATS(2012)[pdf]

地址:
https ://www.hds.utc.fr/~bordesan/dokuwiki/lib/exe/fetch.php ? id = en%3Apubli & cache = cachemedia = en: bordes12aistats.pdf


[2] 米科洛夫,等。“单词和短语的分布式表示及其组合性” ANIPS(2013):3111-3119 [pdf](word2vec)

地址:
http : //papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf


Sutskever等人[3] “”“ANIPS(2014)[pdf]

地址:
http : //papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf


[4]  Ankit Kumar,等。“”问我任何事情:自然语言处理的动态记忆网络“ arXiv预印本arXiv:1506.07285(2015)[pdf]

地址:
https  //arxiv.org/abs/1506.07285


[5]  Yoon Kim等人 “字符感知的神经语言模型”。NIPS(2015)arXiv预印本arXiv:1508.06615(2015)[pdf]

地址:
https  //arxiv.org/abs/1508.06615


[6] 杰森韦斯顿,等人。“走向完整的问题回答:一套先决条件的玩具任务” arXiv预印本arXiv:1502.05698(2015)[pdf](bAbI任务)

地址:
https  //arxiv.org/abs/1502.05698


[7] 卡尔·莫里茨·赫尔曼(Karl Moritz Hermann)等人 “教学机器阅读和理解”。arXiv预印本arXiv:1506.03340(2015)[pdf](CNN /每日邮报完形填空风格的问题)

地址:
https  //arxiv.org/abs/1506.03340


[8]  Alexis Conneau,等。“用于自然语言处理的非常深的卷积网络”。arXiv预印本arXiv:1606.01781(2016)[pdf](文本分类的前沿技术)

地址:
https  //arxiv.org/abs/1606.01781


[9]  Armand Joulin等人 “有效的文本分类技巧”。arXiv预印arXiv:1607.01759(2016)[pdf](比前沿技术稍落后,但快很多)

地址:
https  //arxiv.org/abs/1607.01759


3.2物体检测


[1]  Szegedy,基督教,亚历山大Toshev和杜米特鲁·埃尔汗。“用于物体检测的深度神经网络” 神经信息处理系统的进展。2013. [pdf]

地址:
http : //papers.nips.cc/paper/5207-deep-neural-networks-for-object-detection.pdf


[2]  Girshick,Ross,等。“丰富的功能层次结构,用于精确的对象检测和语义分割。” IEEE计算机视觉和模式识别会议论文集。2014年。[pdf](RCNN)

地址:
http : //www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Girshick_Rich_Feature_Hierarchies_2014_CVPR_paper.pdf


[3]  他,开明,等。“用于视觉识别的深度卷积网络中的空间金字塔池”。欧洲计算机视觉会议。Springer International Publishing,2014. [pdf](SPPNet)

地址:
http  //arxiv.org/pdf/1406.4729


[4]  Girshick,罗斯。“快速r-cnn”。IEEE国际计算机视觉会议论文集。2015年。[pdf]

地址:
https  //pdfs.semanticscholar.org/8f67/64a59f0d17081f2a2a9d06f4ed1cdea1a0ad.pdf


[5] 任少清,等。“更快的R-CNN:利用地区提案网络实现对象的实时检测。

地址:
http : //papers.nips.cc/paper/5638-analysis-of-variational-bayesian-latent-dirichlet-allocation-weaker-sparsity-than-map.pdf


Redmon,Joseph等人[6] “你只看一次:统一的,实时的对象检测。” arXiv预印本arXiv:1506.02640(2015)。[pdf](YOLO,杰出研究,非常具有使用价值)

地址:
http : //homes.cs.washington.edu/~ali/papers/YOLO.pdf


[7] 刘伟,等。“SSD:Single Shot MultiBox检测器”。arXiv预印本arXiv:1512.02325(2015)。[PDF]

地址:
http  //arxiv.org/pdf/1512.02325


戴吉峰等[8] “R-FCN:基于区域的全卷积网络的目标检测”。arXiv预印本arXiv:1605.06409(2016)。[PDF]

地址:
https  //arxiv.org/abs/1605.06409


3.3视觉追踪


[1]  王乃艳,杨延炎。“学习视觉跟踪的深度紧凑图像表示”。神经信息处理系统的进展。(pdf)(第一篇使用深度学习做视觉追踪的论文,DLT Tracker)

地址:
http : //papers.nips.cc/paper/5192-learning-a-deep-compact-image-representation-for-visual-tracking.pdf


[2]  王乃艳,等。“传输丰富的功能层次结构,以实现强大的视觉追踪。” arXiv预印本arXiv:1501.04587(2015)。[pdf](SO-DLT)

地址:
http  //arxiv.org/pdf/1501.04587


[3]  王立军,等。“完全卷积网络的视觉跟踪。” IEEE国际计算机视觉会议论文集。2015年。[pdf](FCNT)

地址:
http : //www.cv-foundation.org/openaccess/content_iccv_2015/papers/Wang_Visual_Tracking_With_ICCV_2015_paper.pdf


[4]  David,Sebastian Thrun和Silvio Savarese。“学习使用深度回归网络以100 FPS进行跟踪”。arXiv预印本arXiv:1604.01802(2016)。[pdf](GOTURN,在深度学习方法里算是非常快的,但仍比非深度学习方法慢很多)

地址:
http : //arxiv.org/pdf/1604.01802


[5]  Bertinetto,Luca等人。“用于对象跟踪的全卷积连体网络”。arXiv预印本arXiv:1606.09549(2016)。[pdf](SiameseFC,实时物体追踪领域的最新前沿技术)

地址:
https : //arxiv.org/pdf/1606.09549


[6]  Martin Danelljan,Andreas Robinson,Fahad Khan,Michael Felsberg。“超越相关滤波器:学习连续卷积算子进行视觉跟踪”。ECCV(2016)[pdf](C-COT)

地址:
http : //www.cvl.isy.liu.se/research/objrec/visualtracking/conttrack/C-COT_ECCV16.pdf


[7] 南贤贤,白衣Mo,朴玄。“在树状结构中建模和传播CNN以进行视觉跟踪”。arXiv预印本arXiv:1608.07242(2016)。[pdf](VOT2016获奖论文,TCNN)

地址:
https  //arxiv.org/pdf/1608.07242


3.4图像标注


[1]  Farhadi,阿里,等等。“每张照片都讲述一个故事:从图像生成句子”。在Computer VisionECCV 2010. Springer Berlin Heidelberg:2010年15月29日。[pdf]

地址:
https  //www.cs.cmu.edu/~afarhadi/papers/sentence.pdf


[2]  Kulkarni,Girish等人。“宝贝说话:了解和生成图像描述”。在第24届CVPR论文集,2011年。[pdf]

地址:
http : //tamaraberg.com/papers/generation_cvpr11.pdf


[3]  Vinyals,Oriol,等。“显示并告诉:一个神经图像标题生成器”。在arXiv预印本arXiv:1411.4555,2014。[pdf]

地址:
https  //arxiv.org/pdf/1411.4555.pdf


[4] 多纳休,杰夫,等。“用于视觉识别和描述的长期递归卷积网络”。在arXiv预印本arXiv:1411.4389,2014。[PDF]

地址:
https  //arxiv.org/pdf/1411.4389.pdf


[5]  Karpathy,Andrej和李飞飞。“用于生成图像描述的深度视觉 - 语义对齐”。在arXiv预印本arXiv:1412.2306,2014。[pdf]

地址:
https  //cs.stanford.edu/people/karpathy/cvpr2015.pdf


[6]  Karpathy,Andrej,Armand Joulin和Fei Fei F. Li。“双向图像语句映射的深层嵌入”。在神经信息处理系统的进展,2014。[pdf]

地址:
https  //arxiv.org/pdf/1406.5679v1.pdf


[7] 方昊,等。“从字幕到视觉概念,回来”。在arXiv预印本arXiv:1411.4952,2014。[pdf]

地址:
https : //arxiv.org/pdf/1411.4952v3.pdf


[8] 陈新雷,和劳伦斯Zitnick。“学习图像标题生成的经常性视觉表示”。在arXiv预印本arXiv:1411.5654,2014。[pdf]

地址:
https  //arxiv.org/pdf/1411.5654v1.pdf


[9] 毛俊华,等。“使用多模式递归神经网络(m-rnn)的深度字幕”。在arXiv预印本arXiv:1412.6632,2014。[pdf]

地址:
https  //arxiv.org/pdf/1412.6632v5.pdf


Xu,Kelvin等人[10] “显示,参加并讲述:以视觉注意力生成神经影像字幕”。在arXiv预印本arXiv:1502.03044,2015。[pdf]

地址:
https  //arxiv.org/pdf/1502.03044v3.pdf


3.5机器翻译


部分里程碑研究被列入  RNN / Seq-to-Seq 版块

[1]  Luong,Minh-Thang,等。“解决神经机器翻译中罕见的单词问题” arXiv预印本arXiv:1410.8206(2014)。[PDF]

地址:
http : //arxiv.org/pdf/1410.8206


[2]  Sennrich等人“具有子字单元的稀有词的神经机器翻译”。在arXiv预印本arXiv:1508.07909,2015。[pdf]

地址:
https  //arxiv.org/pdf/1508.07909.pdf


[3]  Luong,Minh-Thang,Hieu Pham和Christopher D. Manning。“注重神经机器翻译的有效方法”。arXiv预印本arXiv:1508.04025(2015)。[PDF]

地址:
http  //arxiv.org/pdf/1508.04025


[4]  Chung,et al。“神经机器翻译没有显式分割的字符级解码器”。在arXiv预印本arXiv:1603.06147,2016。[pdf]

地址:
https  //arxiv.org/pdf/1603.06147.pdf


[5]  李,等。“全面的字符级神经机器翻译没有明确的分割”。在arXiv预印本arXiv:1610.03017,2016。[pdf]

地址:
https  //arxiv.org/pdf/1610.03017.pdf


[6]  Wu,Schuster,Chen,Le,et al。“Google的神经机器翻译系统:缩小人与机器翻译之间的差距”。在arXiv预印本arXiv:1609.08144v2,2016。[pdf](里程碑)

地址:
https  //arxiv.org/pdf/1609.08144v2.pdf


3.6机器人


[1]  Koutník,Jan,等人。“发展基于视觉强化学习的大规模神经网络”。遗传与进化计算第15届年会论文集。ACM,2013. [pdf]

地址:
http : //repository.supsi.ch/4550/1/koutnik2013gecco.pdf


[2] 莱文,谢尔盖,等。“深度视觉运动政策的端到端培训”。机器学习研究杂志17.39(2016):1-40。[PDF]

地址:
http  //www.jmlr.org/papers/volume17/15-522/15-522.pdf


[3]  平托,Lerrel和Abhinav Gupta。“超越自我监督:学习从50k机器人到700机器人小时的掌握。”arXiv预印本arXiv:1509.06825(2015)。[PDF]

地址:
http  //arxiv.org/pdf/1509.06825


[4]  莱文,谢尔盖,等。“通过深度学习和大规模数据采集学习机器人手眼协调学习”。arXiv预印本arXiv:1603.02199(2016)。[PDF]

地址:
http  //arxiv.org/pdf/1603.02199


[5] 朱玉科,等。“使用深度增强学习的室内场景中的目标驱动视觉导航” arXiv预印本arXiv:1609.05143(2016)。[PDF]

地址:
https  //arxiv.org/pdf/1609.05143


[6]  Yahya,阿里,等。“分布式异步制导搜索的集体机器人强化学习” arXiv预印本arXiv:1610.00673(2016)。[PDF]

地址:
https  //arxiv.org/pdf/1610.00673


[7] 顾士祥等。“机器人操纵的深度强化学习”。arXiv预印本arXiv:1610.00633(2016)。[PDF]

地址:
https  //arxiv.org/pdf/1610.00633


[8]  A Rusu,M Vecerik,Thomas Rothrl,N Heess,R Pascanu,R Hadsell。“Sim-to-Real机器人学习像素逐步网络。arXiv预印本arXiv:1610.04286(2016)。[PDF]

地址:
https  //arxiv.org/pdf/1610.04286.pdf


[9]  Mirowski,Piotr等人。“在复杂的环境中学习导航” arXiv预印本arXiv:1611.03673(2016)。[PDF]

地址:
https  //arxiv.org/pdf/1611.03673


3.7艺术


[1]  Mordvintsev,亚历山大; 奥拉,克里斯托弗; Tyka,Mike(2015)。“入门主义:深入神经网络”。Google Research。[html](深度梦)

地址:
https : //research.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html


[2]  Gatys,Leon A.,Alexander Ecker和Matthias Bethge。“艺术风格的神经算法” arXiv预印本arXiv:1508.06576(2015)。[pdf](杰出研究,迄今最成功的方法)

地址:
http  //arxiv.org/pdf/1508.06576


[3]  朱俊彦,等。“对自然图像流形的生成式视觉操纵” 欧洲计算机视觉会议。Springer International Publishing,2016. [pdf](iGAN)

地址:
https  //arxiv.org/pdf/1609.03552


[4]  Champandard,Alex J.“语义风格转换和把两位涂鸦变成精美的艺术品”。arXiv预印本arXiv:1603.01768(2016)。[pdf](神经涂鸦)

地址:
http  //arxiv.org/pdf/1603.01768


[5]  张,理查德,菲利普伊索拉和阿列克谢埃弗罗斯。“彩色图像着色” arXiv预印本arXiv:1603.08511(2016)。[PDF]

地址:
http : //arxiv.org/pdf/1603.08511


[6] 约翰逊,贾斯汀,亚历山大阿拉希和李飞飞。“实时风格转换和超分辨率的感知损失”。arXiv预印本arXiv:1603.08155(2016)。[PDF]

地址:
https  //arxiv.org/pdf/1603.08155.pdf


[7] 文森特·杜穆林,乔纳森·舒伦斯和曼努阿斯·库德鲁。“学习艺术风格的代表” arXiv预印本arXiv:1610.07629(2016)。[PDF]


[8]  Gatys,Leon和Ecker等人“控制感觉因素在神经风格转移”。arXiv预印本arXiv:1611.07865(2016)。[pdf](空间位置,颜色信息和空间尺度上的控制风格转移)


[9]  Ulyanov,德米特里和列别捷夫,瓦迪姆,等。“纹理网络:纹理和风格化图像的前馈合成”。arXiv预印本arXiv:1603.03417(2016)。[pdf](纹理生成和风格变化)


3.8目标分割对象分割


[1]  J. Long,E. Shelhamer和T. Darrell,“完全卷积网络语义分割”,CVPR,2015。[pdf]

地址:
https  //arxiv.org/pdf/1411.4038v2.pdf


[2]  L.-C. 陈,帕潘德里欧,科克金诺斯,K.墨菲和AL尤伊尔。“深度卷积网和完全连接的crfs的语义图像分割”。在ICLR,2015。[pdf]

地址:
https  //arxiv.org/pdf/1606.00915v1.pdf


[3]  Pinheiro,PO,Collobert,R.,Dollar,P。“学习分割候选对象”。在:NIPS。2015年。[pdf]

地址:
https  //arxiv.org/pdf/1506.06204v2.pdf


[4]  Dai,J.,He,K.,Sun,J。“通过多任务网络级联的实例感知语义分割”。在CVPR。2016 [pdf]

地址:
https  //arxiv.org/pdf/1512.04412v1.pdf


[5]  Dai,J.,He,K.,Sun,J。“实例敏感全卷积网络”。arXiv预印本arXiv:1603.08678(2016)。[PDF]

地址:
https : //arxiv.org/pdf/1603.08678v1.pdf

↓ 点击阅读原文,进入【全球人工智能学院]

登录查看更多
5

相关内容

arXiv(X依希腊文的χ发音,读音如英语的archive)是一个收集物理学、数学、计算机科学与生物学的论文预印本的网站,始于1991年8月14日。截至2008年10月,arXiv.org已收集超过50万篇预印本;至2014年底,藏量达到1百万篇。在2014年时,约以每月8000篇的速度增加。
最新《深度学习自动驾驶》技术综述论文,28页pdf
专知会员服务
153+阅读 · 2020年6月14日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
169+阅读 · 2020年2月8日
2019->2020必看的十篇「深度学习领域综述」论文
专知会员服务
269+阅读 · 2020年1月1日
【开源书】PyTorch深度学习起步,零基础入门(附pdf下载)
专知会员服务
107+阅读 · 2019年10月26日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
90+阅读 · 2019年10月16日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
225+阅读 · 2019年10月12日
十大深度学习热门论文(2018年版)
论智
3+阅读 · 2018年4月24日
深度学习入门笔记
论智
7+阅读 · 2018年3月31日
论文分类
统计学习与视觉计算组
5+阅读 · 2018年3月13日
【推荐】深度学习情感分析综述
机器学习研究会
58+阅读 · 2018年1月26日
入门 | 简述迁移学习在深度学习中的应用
机器之心
5+阅读 · 2018年1月5日
干货 | 深度学习论文汇总
AI科技评论
4+阅读 · 2018年1月1日
Arxiv
135+阅读 · 2018年10月8日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
6+阅读 · 2018年6月21日
Arxiv
4+阅读 · 2018年5月21日
Arxiv
7+阅读 · 2018年4月24日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关VIP内容
相关资讯
十大深度学习热门论文(2018年版)
论智
3+阅读 · 2018年4月24日
深度学习入门笔记
论智
7+阅读 · 2018年3月31日
论文分类
统计学习与视觉计算组
5+阅读 · 2018年3月13日
【推荐】深度学习情感分析综述
机器学习研究会
58+阅读 · 2018年1月26日
入门 | 简述迁移学习在深度学习中的应用
机器之心
5+阅读 · 2018年1月5日
干货 | 深度学习论文汇总
AI科技评论
4+阅读 · 2018年1月1日
相关论文
Arxiv
135+阅读 · 2018年10月8日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
6+阅读 · 2018年6月21日
Arxiv
4+阅读 · 2018年5月21日
Arxiv
7+阅读 · 2018年4月24日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
25+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员