项目名称: 面向交互式情感计算的多模态信息融合建模研究

项目编号: No.61304262

项目类型: 青年科学基金项目

立项/批准年度: 2014

项目学科: 自动化技术、计算机技术

项目作者: 徐超

作者单位: 天津大学

项目金额: 22万元

中文摘要: 情感计算是人机交互等智能监护的难点,课题拟在交互情境中通过表情、语音语调和生理信号等多模态信息融合建模研究情感体验分布。课题采用模型化设计和形式化分析结合的解决方案,针对情感计算的不确定性和多模态信息依赖特性,提出协同依赖的情感体验与信息融合模型,具体对情境多模态信息处理、情感-动因网和情感分布的信息融和展开研究,包括:设计交互情境中动因感知和情感状态分析的形式化方法;研究情境、多模态信息和情感的内在联系,抽离表情、语音语调和生理信号等,提出多模态融合的情感-动因网模型,实现情感知识表示、因果分析和预测推理;基于情感-动因网,提出情感信息的协同依赖模型,引入多模型协同的信息融合框架,提高情感分析客观性。研究意义:提出交互情境中情感体验及其信息融合模型,为智能"人-机-情境"交互和行为决策提供理论和技术支撑;构建应用场景和系统原型,对理论模型和技术方案进行有效性和可行性验证。

中文关键词: 情感体验分布;协同依赖;人-机-情境;信息融合;

英文摘要: Affective computing is an important step in human-computer interaction and intelligent monitoring that can improve the rationality for the seamless interaction. In this proposal, we study the inner mechanism between facial expression, voice tone, physiological signals and affective experience based on interactive context and multi-modal information fusion. Due to the complexity and uncertainty of affective computing, it decreases the analysis accuracy. A novel approach for affective experience evaluation in interactive environment is presented to solve the significance of those findings. From the view of cognitive intelligence, interactive environment, multi-modal information fusion, affective-factor net and affective experience distribution modal are proposed. The models can improve the analytical skills through the models' synergetic interactions. Based on affective-factor net and their cooperative interaction, multi-modal information such as facial expression, voice tone and physiological signals are applied to do synergetic dependence evaluation and to construct affective experience distribution. As well as the algorithms of multi-modal information fusion, it can improve the objectivity quality of the affective experience distribution topology including knowledge representation, causal analysis and predictio

英文关键词: Affective Experience Distribution;Synergetic Dependence;Human-Computer-Context;Information Fusion;

成为VIP会员查看完整内容
1

相关内容

个性化学习推荐研究综述
专知会员服务
57+阅读 · 2022年2月2日
【博士论文】视觉语言交互中的视觉推理研究
专知会员服务
58+阅读 · 2021年12月1日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
93+阅读 · 2021年6月23日
专知会员服务
53+阅读 · 2021年4月3日
基于生理信号的情感计算研究综述
专知会员服务
61+阅读 · 2021年2月9日
专知会员服务
46+阅读 · 2020年10月20日
下一代对话系统中的关键技术(下篇)
PaperWeekly
2+阅读 · 2022年4月1日
基于虚拟现实环境的深度学习模型构建
MOOC
23+阅读 · 2019年9月28日
Interspeech 2019 | 基于多模态对齐的语音情感识别
AI科技评论
23+阅读 · 2019年9月21日
陶建华、杨明浩谈多模态人机对话:交互式学习能力愈发重要
中国科学院自动化研究所
31+阅读 · 2019年7月17日
情感计算综述
人工智能学家
31+阅读 · 2019年4月6日
CCCF专题:史元春 | 自然人机交互
中国计算机学会
23+阅读 · 2018年5月18日
最全面的百度NLP自然语言处理技术解析
未来产业促进会
13+阅读 · 2017年11月12日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
12+阅读 · 2020年6月20日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
22+阅读 · 2018年8月3日
Arxiv
11+阅读 · 2018年5月21日
Arxiv
14+阅读 · 2018年5月15日
小贴士
相关VIP内容
个性化学习推荐研究综述
专知会员服务
57+阅读 · 2022年2月2日
【博士论文】视觉语言交互中的视觉推理研究
专知会员服务
58+阅读 · 2021年12月1日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
93+阅读 · 2021年6月23日
专知会员服务
53+阅读 · 2021年4月3日
基于生理信号的情感计算研究综述
专知会员服务
61+阅读 · 2021年2月9日
专知会员服务
46+阅读 · 2020年10月20日
相关资讯
下一代对话系统中的关键技术(下篇)
PaperWeekly
2+阅读 · 2022年4月1日
基于虚拟现实环境的深度学习模型构建
MOOC
23+阅读 · 2019年9月28日
Interspeech 2019 | 基于多模态对齐的语音情感识别
AI科技评论
23+阅读 · 2019年9月21日
陶建华、杨明浩谈多模态人机对话:交互式学习能力愈发重要
中国科学院自动化研究所
31+阅读 · 2019年7月17日
情感计算综述
人工智能学家
31+阅读 · 2019年4月6日
CCCF专题:史元春 | 自然人机交互
中国计算机学会
23+阅读 · 2018年5月18日
最全面的百度NLP自然语言处理技术解析
未来产业促进会
13+阅读 · 2017年11月12日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
相关论文
Arxiv
12+阅读 · 2020年6月20日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
22+阅读 · 2018年8月3日
Arxiv
11+阅读 · 2018年5月21日
Arxiv
14+阅读 · 2018年5月15日
微信扫码咨询专知VIP会员