When a recurrent neural network language model is used for caption generation, the image information can be fed to the neural network either by directly incorporating it in the RNN -- conditioning the language model by `injecting' image features -- or in a layer following the RNN -- conditioning the language model by `merging' image features. While both options are attested in the literature, there is as yet no systematic comparison between the two. In this paper we empirically show that it is not especially detrimental to performance whether one architecture is used or another. The merge architecture does have practical advantages, as conditioning by merging allows the RNN's hidden state vector to shrink in size by up to four times. Our results suggest that the visual and linguistic modalities for caption generation need not be jointly encoded by the RNN as that yields large, memory-intensive models with few tangible advantages in performance; rather, the multimodal integration should be delayed to a subsequent stage.


翻译:当一个经常性神经网络语言模型被用于制作标题时,图像信息可以直接将其纳入神经网络,办法是将它纳入RNN -- -- 将语言模型设置为“输入”图像特征,或者在RNN之后的一层 -- -- 将语言模型设置为“合并”图像特征。虽然这两个选项在文献中得到证明,但两者之间还没有系统性的比较。在本文中,我们从经验上表明,无论使用一个架构还是另一个架构都不特别有害于性能。合并结构确实具有实际优势,因为通过合并调整,RNN隐藏的状态矢量的缩小到四倍。我们的结果表明,标题生成的视觉和语言模式不需要由RNN联合编码,因为这样产生大型、记忆密集的模型,在性能上没有多少明显优势;相反,多式集成应推迟到下一个阶段。

3
下载
关闭预览

相关内容

知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
111+阅读 · 2020年6月10日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
6+阅读 · 2018年4月3日
VIP会员
相关资讯
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
6+阅读 · 2018年4月3日
Top
微信扫码咨询专知VIP会员