Research has shown that trust is an essential aspect of human-computer interaction directly determining the degree to which the person is willing to use a system. An automatic prediction of the level of trust that a user has on a certain system could be used to attempt to correct potential distrust by having the system take relevant actions like, for example, apologizing or explaining its decisions. In this work, we explore the feasibility of automatically detecting the level of trust that a user has on a virtual assistant (VA) based on their speech. We developed a novel protocol for collecting speech data from subjects induced to have different degrees of trust in the skills of a VA. The protocol consists of an interactive session where the subject is asked to respond to a series of factual questions with the help of a virtual assistant. In order to induce subjects to either trust or distrust the VA's skills, they are first informed that the VA was previously rated by other users as being either good or bad; subsequently, the VA answers the subjects' questions consistently to its alleged abilities. All interactions are speech-based, with subjects and VAs communicating verbally, which allows the recording of speech produced under different trust conditions. Using this protocol, we collected a speech corpus in Argentine Spanish. We show clear evidence that the protocol effectively succeeded in influencing subjects into the desired mental state of either trusting or distrusting the agent's skills, and present results of a perceptual study of the degree of trust performed by expert listeners. Finally, we found that the subject's speech can be used to detect which type of VA they were using, which could be considered a proxy for the user's trust toward the VA's abilities, with an accuracy up to 76%, compared to a random baseline of 50%.


翻译:研究显示,信任是人类计算机互动的一个基本方面,它直接决定了个人愿意使用系统的程度。自动预测用户对某一系统的信任程度,可以用来通过系统采取相关行动,例如道歉或解释其决定等,试图纠正潜在的不信任。在这项工作中,我们探索自动检测用户对虚拟助理(VA)的信任程度的可行性。我们开发了一个新的协议,从对VA技能有不同程度信任的科目收集语音数据。协议包括交互式会议,要求用户对某一系统的信任程度在虚拟助理的帮助下对一系列事实问题作出反应。为了让对象信任或不信任VA的技能,他们首先被告知,其他用户以前将VA对虚拟助理(VA)的信任程度评为好或坏;随后,VA对主题问题的答复可以与所指称的能力一致。所有互动都是基于语言的,主题和VA的口头交流,可以让用户在不同的信任条件下对一系列事实问题进行记录,用户在虚拟助理的帮助下回答一系列事实问题。为了吸引对象的信任程度,我们使用这种信任程度,我们用这种信任的方式收集了一种语言记录,我们使用这种信任程度,然后用一种语言记录,我们用这种信任的方法来测量了一种语言, 我们用一种语言的排序的判断,我们用一种语言的判断,用一种信任的方式,用一种语言,用一种语言进行一种信任等级,我们使用一种语言的学习的学习的排序,用一种语言进行一种信任等级进行一种语言,用一种语言, 进行一种语言进行一种语言进行一种信任等级进行一种语言的比较一个信任的学习。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
计算机 | IUI 2020等国际会议信息4条
Call4Papers
6+阅读 · 2019年6月17日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
综述 | 事件抽取及推理 (上)
开放知识图谱
87+阅读 · 2019年1月9日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
3+阅读 · 2018年10月11日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
Arxiv
0+阅读 · 2021年4月12日
VIP会员
相关资讯
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
计算机 | IUI 2020等国际会议信息4条
Call4Papers
6+阅读 · 2019年6月17日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
综述 | 事件抽取及推理 (上)
开放知识图谱
87+阅读 · 2019年1月9日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
3+阅读 · 2018年10月11日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
Top
微信扫码咨询专知VIP会员