【ACMMM2017硅谷盛宴】多媒体领域各大奖项出炉!电子科大斩获最佳论文!中科院自动化所多媒体计算组获得IEEE期刊最佳论文!

点击上方“专知”关注获取更多AI知识!


【导读】第25届ACM国际多媒体会议(ACM International Conference onMultimedia, 简称ACM MM)于2017年10月23日至27日在美国硅谷Mountain View隆重举行。自1993年首次召开以来,ACMMM每年召开一次,已经成为多媒体领域顶级会议,也是中国计算机学会推荐的A类国际学术。会议热门方向有大规模图像视频分析、社会媒体研究、多模态人机交互、计算视觉、计算图像等等。今年ACM MM的最佳论文是电子科技大学的Bokun Wang, Yang Yang, Xing Xu, Alan Hanjalic 和 Heng Tao Shen的“AdversarialCross-Modal Retrieval”,最佳学生论文是美国德克萨斯大学的H-TIME: Haptic-enabled Tele-Immersive Musculoskeletal Examination"。此外,来自中科院自动化所模式识别国家重点实验室多媒体计算团队的文章“Multimodal Spatial-Temporal Theme Modeling for Landmark Analysis”获得IEEE Multimedia 2017年度的最佳论文奖。



ACM Multimedia 2017 概况


MM2017今年在美国山景城隆重举行。山景城位于美国加利福尼亚洲,毗邻旧金山湾区,是硅谷的一大重要组成部分。许多闻名世界的科技公司和机构都坐落于此,如谷歌总部、Mozilla公司、斯坦福大学和美国国家航空航天局埃姆斯研究中心等。MM2017的会场位于计算机历史博物馆(Computer History Musem),其具有四十余年的历史, 诸多计算机历史上独一无二的原始机器和模型汇聚于此。这里展出了全球计算机领域规模最大、意义最深远的相关产品,科技感、艺术感十足。

今年吸引了来自全球各地的学术界、工业界多媒体方向的570多名专家、学生以及从业者,前来展示自己的科学成果和工业创新产品。

从今年起,会议论文取消了以前的长文和短文的形式,规定论文的长度统一为6至8页(不含参考文献),区分口头报告(Oral)和海报论文(Poster)。本届会议收到来自世界各地的论文投稿684篇,录取189篇,其中口头报告49篇,海报论文140篇,录取率分别是0.07%和20.74%,可见竞争之激烈。



今年22个领域的文章被合并为5个主题,分别是系统(System)、体验(Experience)、理解(Understanding)、参与(Engagement)以及今年新增的新兴主题(Novel Topics)。

 

ACM Multimedia 2017  各大奖项


最佳论文奖

       

  • 论文:《Adversarial Cross-Modal Retrieval》

  • 作者:Bokun Wang, Yang Yang, Xing Xu, Alan Hanjalic, HengTao Shen

  • 论文地址:https://dl.acm.org/citation.cfm?id=3123326 

  • 摘要:当前,跨模态检索研究一个核心是学习一个共享的子空间使不同的模态信息(文本或者图像)能够直接进行比较。这篇论文主要是提出了一种新颖对抗性的跨模态检索(ACMR)方法用于跨模态检索任务中,核心是使用对抗学习机制在不同模态之间互相作用得到一个有效的共享子空间。其中,对抗学习机制是基于两个不同的过程之间的相互作用实现的。第一个过程是一个特征映射器,其试着在共享的子空间中产生模型不变的表示来混淆另一个过程,这个过程是模态分类器,其主要是基于第一个过程中产生的特征表示信息对不同模态进行区分。论文在四个公开的数据集上进行了实验,其性能明显优于其他跨模态检索方法,展示其方法的有效性。




最佳学生论文奖


  • 论文:《H-TIME: Haptic-enabled Tele-Immersive Musculoskeletal Examination》

  • 作者:Yuan Tian, Suraj Raghuraman, Thiru Annaswamy,Aleksander Borresen, Klara Nahrstedt, Balakrishnan Prabhakaran

  • 论文地址https://dl.acm.org/citation.cfm?id=3123395 

  • 摘要:目前最先进的远程医疗应用程序只允许医生和患者之间的视听通信,并且需要门诊医生对病人身体检查。医生依靠门诊医生的检查和病人的视听对话来进行诊断。这篇论文提出了一种触觉功能的远程沉浸式肌肉骨骼检查(H-TIME)系统,该系统可以远程检查病人身体的肌肉骨骼条件,通过三维重建在虚拟世界中的病人的模型,和使用触觉装置来感觉病人的移动性状况。H-TIME的双向触觉渲染功能可以让医生评估患有上肢功能障碍的病人,如肩、肘、腕、等,并且能够远程评估。这篇使用了user study 评价机制,实际应用效果显著,期待后续发挥更大的价值。





    IEEE Multimedia 2017 最佳论文奖

  • 来自中科院自动化所模式识别国家重点实验室多媒体计算团队闵巍庆博士、鲍秉坤副研究员和徐常胜研究员共同署名的文章“Multimodal Spatial-Temporal Theme Modeling for Landmark Analysis”获得IEEE Multimedia 2017年度的最佳论文奖。


多媒体计算领域杰出技术贡献奖


其他奖项:



(感谢闵博士(IEEE Multimedia 2017 最佳论文获得者)提供的现场素材!)


特注:


请登录www.zhuanzhi.ai或点击阅读原文,顶端搜索“Multimedia” 主题, 直接获取查看获得全网收录资源进行查看, 涵盖论文等资源下载链接,并获取更多与ACMMM2017多媒体相关的资讯、算法、知识资料!如下图所示。

此外,请关注专知公众号(扫一扫最下面专知二维码,或者点击上方蓝色专知),后台回复“MM17” 就可以获取ACM Multimedia 2017相关 论文的ppt报告资料的下载链接,下载获取~~


 欢迎转发到你的微信群和朋友圈,分享专业AI知识!

-END-

欢迎使用专知

专知,一个新的认知方式!目前聚焦在人工智能领域为AI从业者提供专业可信的知识分发服务, 包括主题定制、主题链路、搜索发现等服务,帮你又好又快找到所需知识。


使用方法>>访问www.zhuanzhi.ai, 或点击文章下方“阅读原文”即可访问专知


中国科学院自动化研究所专知团队

@2017 专知


专 · 知


关注我们的公众号,获取最新关于专知以及人工智能的资讯、技术、算法、深度干货等内容。扫一扫下方关注我们的微信公众号。


点击“阅读原文”,使用专知

展开全文
Top
微信扫码咨询专知VIP会员