【泡泡一分钟】基于注意力机制的深度网络HydraPlus-Net(ICCV2017-34)

2018 年 6 月 9 日 泡泡机器人SLAM

每天一分钟,带你读遍机器人顶级会议文章

标题:HydraPlus-Net:Attentive Deep Features for Pedestrian Analysis

作者:Xihui Liu, Haiyu Zhao,Jing Shao等

来源:International Conference on Computer Vision (ICCV 2017)

播音员:阿晨

编译:陈世浪 周平(37)

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权


摘要

行人分析在智能视频监控中扮演着重要角色,是以安全为中心的计算机视觉系统的关键组成部分。尽管卷积神经网络在识别图像的鉴别特征方面非常出色,但对行人进行细粒度任务的综合特征的学习仍然是亟待解决的问题。


在本研究中,作者提出了一种新的基于注意力的深度神经网络,它被命名为HydraPlus-Net (HPnet),这种网络将不同层级的注意力映射到不同的特征层。作者提出的HP-net中得到的细心的深层特征带来了独特的优势;(1)该模型能够从低层次到语义层次捕获多个关注;(2)探索了关注特性的多尺度选择性,丰富了行人图像的最终特征表示。


作者证明了HP-net有效性和普遍性,在行人属性识别和人重新鉴定两项任务中进行了行人分析。同时提供了强大的实验结果来证明HP-net在各种数据集上的性能优于现有的方法。

图1 网络结构示意图


图2 行人不同位置显示的语义图

图3 行人不同的特征的语义识别率对比图

图4 行人属性实验结果

图5 高层特征与底层特征提取信息的区别

Abstract    

 Pedestrian analysis plays a vital role in intelligent video surveillance and is a key component for security-centric computer vision systems.  Despite that the convolutional neural networks are remarkable in learning discriminative features from images, the learning of comprehensive features of pedestrians for fine-grained tasks remains an open problem.  In this study, we propose a new attentionbased deep neural network, named as HydraPlus-Net (HPnet), that multi-directionally feeds the multi-level attention maps to different feature layers.  The attentive deep features learned from the proposed HP-net bring unique advantages: (1) the model is capable of capturing multiple attentions from low-level to semantic-level, and (2) it explores the multi-scale selectiveness of attentive features to enrich the final feature representations for a pedestrian image.  We demonstrate the effectiveness and generality of the proposed HP-net for pedestrian analysis on two tasks, i.e. pedestrian attribute recognition and person reidentification.  Intensive experimental results have been provided to prove that the HP-net outperforms the state-of-the-art methods on various datasets. 



如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号(paopaorobot_slam)

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/forums/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系liufuqiang_robot@hotmail.com

登录查看更多
8

相关内容

ICCV 的全称是 IEEE International Conference on Computer Vision,即国际计算机视觉大会,由IEEE主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议,被澳大利亚ICT学术会议排名和中国计算机学会等机构评为最高级别学术会议,在业内具有极高的评价。不同于在美国每年召开一次的CVPR和只在欧洲召开的ECCV,ICCV在世界范围内每两年召开一次。ICCV论文录用率非常低,是三大会议中公认级别最高的。ICCV会议时间通常在四到五天,相关领域的专家将会展示最新的研究成果。
基于深度学习的多标签生成研究进展
专知会员服务
140+阅读 · 2020年4月25日
注意力机制模型最新综述
专知会员服务
259+阅读 · 2019年10月20日
【泡泡一分钟】学习多视图相似度(ICCV-2017)
泡泡机器人SLAM
9+阅读 · 2018年10月7日
【泡泡一分钟】多尺度优化的CNN目标检测算法(ICCV2017-55)
泡泡机器人SLAM
8+阅读 · 2018年7月20日
【泡泡一分钟】学习紧密的几何特征(ICCV2017-17)
泡泡机器人SLAM
20+阅读 · 2018年5月8日
Arxiv
6+阅读 · 2018年5月18日
Arxiv
16+阅读 · 2018年4月2日
VIP会员
Top
微信扫码咨询专知VIP会员