Trustworthy robot behavior requires not only high levels of task success but also that the robot can reliably quantify how likely it is to succeed. To this end, we present a first-of-its-kind study of confidence calibration in vision-language-action (VLA) foundation models, which map visual observations and natural language instructions to low-level robot motor commands. We establish a confidence baseline for VLAs, examine how task success relates to calibration error and how calibration evolves over time, and introduce two lightweight techniques to remedy the miscalibration we observe: prompt ensembles and action-wise Platt scaling. Our aim in this study is to begin to develop the tools and conceptual understanding necessary to render VLAs both highly performant and highly trustworthy via reliable uncertainty quantification.


翻译:可信的机器人行为不仅要求任务成功率高,还要求机器人能够可靠地量化其成功的可能性。为此,我们首次对视觉-语言-动作基础模型中的置信度校准进行了研究,这类模型将视觉观察和自然语言指令映射为低层级的机器人运动指令。我们为VLA模型建立了置信度基线,检验了任务成功率与校准误差之间的关系以及校准如何随时间演变,并引入了两种轻量级技术来纠正我们观察到的校准偏差:提示集成与动作级普拉特缩放。本研究旨在初步开发必要的工具和概念理解,以通过可靠的不确定性量化,使VLA模型既具备高性能又具备高可信度。

0
下载
关闭预览

相关内容

[ICML2024]消除偏差:微调基础模型以进行半监督学习
专知会员服务
17+阅读 · 2024年5月23日
专知会员服务
33+阅读 · 2021年7月27日
[CVPR 2021] 序列到序列对比学习的文本识别
专知
10+阅读 · 2021年4月14日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员