开源代码上新!6 份最新「Paper + Code」 | PaperDaily #17

2017 年 11 月 23 日 PaperWeekly 让你更懂AI的



在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。


在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。


点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。

这是 PaperDaily 的第  17 篇文章
[ 自然语言处理 ]

DuReader: a Chinese Machine Reading Comprehension Dataset from Real-world Applications

@zhangjun 推荐

#Machine Reading Comprehension

大型中文阅读理解数据集,工作来自百度。

论文链接

https://www.paperweekly.site/papers/1137

代码链接

https://github.com/baidu/DuReader


TransNets - Learning to Transform for Recommendation

@ccclyu 推荐

#Transfer Learning

引入了迁移学习的隐含表示层来减少 test dataset 的稀疏性。

论文链接

https://www.paperweekly.site/papers/1181

代码链接

https://github.com/rosecatherinek/TransNets


[ 计算机视觉 ]

Co-attending Free-form Regions and Detections with Multi-modal Multiplicative Feature Embedding for Visual Question Answering

@xiaolu 推荐

#Visual Question Answering

视觉问答任务(Viual Question Answering)是最近 2-3 年兴起的多模态任务。对于视觉问答任务,算法需要同时理解图片内容和语言信息,然后推理出正确的答案。目前常见的方法有多模态特征融合和以及视觉注意力机制。

已有的注意力机制主要有两类,一类是基于全图区域的注意力机制,一类是基于检测框区域的注意力机制,前者容易关注到物体的一部分,后者会缺少一些检测框。 

本文第一次尝试将基于全图区域的与基于检测框区域的注意力机制融合在一个框架下,充分利用全图区域和检测框之间的互补信息;并且提出新的多模态特征融合方法,将问题特征、全图特征、检测框特征进行有效的融合。模型在 VQA 和 COCO-QA 两个主流数据集上实现了目前最好的结果。

论文链接

https://www.paperweekly.site/papers/1175

代码链接

https://github.com/lupantech/dual-mfa-vqa


Image Crowd Counting Using Convolutional Neural Network and Markov Random Field

@cornicione 推荐

#People Counting

文章融合了 MRF 和 deep 网络,提出了一种统计静态图片中人数的方法。

论文链接

https://www.paperweekly.site/papers/1195

代码链接

https://github.com/hankong/crowd-counting


[ 机器学习 ]

Social Attention - Modeling Attention in Human Crowds

@zk5580752 推荐

#Attention Model

本文是一篇基于 Social LSTM 的后续论文,Social LSTM 是李飞飞团队于 2016 年提出的行人路径预测方法。本文则在原文基础上改进了预测方式,不仅仅基于 RNN 模型,还引入了 Attention Model,使得预测更加精准和全面。

论文链接

https://www.paperweekly.site/papers/1115

代码链接

https://github.com/vvanirudh/social-lstm-tf


Breaking the Softmax Bottleneck: A High-Rank RNN Language Model

@paperweekly 推荐

#RNN

本文尝试改进了语言模型在预测 next token 时用 softmax 遇到的计算瓶颈。

论文链接

https://www.paperweekly.site/papers/1112

代码链接

https://github.com/zihangdai/mos


本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!


 我是彩蛋 

解锁新功能:热门职位推荐!


PaperWeekly小程序升级啦


今日arXiv√猜你喜欢√热门职位


找全职找实习都不是问题

 

 解锁方式 

1. 识别下方二维码打开小程序

2. 用PaperWeekly社区账号进行登陆

3. 登陆后即可解锁所有功能


 职位发布 

请添加小助手微信(pwbot01)进行咨询

 

长按识别二维码,使用小程序

*点击阅读原文即可注册




关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


登录查看更多
5

相关内容

视觉问答(Visual Question Answering,VQA),是一种涉及计算机视觉和自然语言处理的学习任务。这一任务的定义如下: A VQA system takes as input an image and a free-form, open-ended, natural-language question about the image and produces a natural-language answer as the output[1]。 翻译为中文:一个VQA系统以一张图片和一个关于这张图片形式自由、开放式的自然语言问题作为输入,以生成一条自然语言答案作为输出。简单来说,VQA就是给定的图片进行问答。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
109+阅读 · 2020年3月12日
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
34+阅读 · 2020年1月10日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
近期必读的5篇 CVPR 2019【图卷积网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
【书籍】深度学习框架:PyTorch入门与实践(附代码)
专知会员服务
160+阅读 · 2019年10月28日
快醒醒,一大波最新 AI 论文加开源代码来袭!
PaperWeekly
3+阅读 · 2018年4月19日
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
本周值得读:13 份最新开源「Paper + Code」
PaperWeekly
9+阅读 · 2018年1月19日
本周不容错过的的9篇NLP论文 | PaperDaily #21
PaperWeekly
22+阅读 · 2017年12月1日
Arxiv
9+阅读 · 2016年10月27日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员