随着人工智能(artificial intelligence, AI)的高速发展, “黑盒”模型已逐渐展示出逼近甚至超越人类的能力, 尤 其在智能医疗等高风险应用场景中, 其可解释性是用户在应用中信任和理解 AI 的关键基础. 虽然已有工作提供了大 量事前和事后的 AI 可解释方法, 但大都采用通用型解决思路, 未考虑不同用户在不同场景下多维度的理解和信任需 求. 以人为本的 AI 可解释方法能够针对用户实际需求对 AI 模型进行可解释分析, 近年来逐渐受到国内外学者的关 注. 文中聚焦智能医疗应用, 对近 5 年人机交互国际顶级会议的文献进行分析, 回顾现有辅助诊断、辅助用药、未病 预警方面以人为本的 AI 可解释方法及系统, 从决策时间花费、用户专业度和诊疗工作流程 3 个维度梳理和定位可解 释需求的系统性方法, 得出 4 类典型用户画像和对应案例; 并从考虑资源受限、不同用户的多样需求、与现有流程结 合 3 个方面, 为如何设计可解释的医疗辅助诊断系统提出建议.

成为VIP会员查看完整内容
30

相关内容

迈向通用工业智能:工业物联网增强的持续大模型综述
专知会员服务
51+阅读 · 2024年9月4日
基于通信的多智能体强化学习进展综述
专知会员服务
112+阅读 · 2022年11月12日
医学图像分割的深度学习解决方案综述
专知会员服务
88+阅读 · 2020年2月14日
安全和健壮的医疗机器学习综述,附22页pdf
专知会员服务
47+阅读 · 2020年1月25日
「基于通信的多智能体强化学习」 进展综述
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
人脸静默活体检测最新综述
PaperWeekly
14+阅读 · 2020年8月9日
深度学习人体姿态估计算法综述
AI前线
25+阅读 · 2019年5月19日
深度学习时代的目标检测算法综述
AI前线
12+阅读 · 2017年9月22日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
180+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关资讯
「基于通信的多智能体强化学习」 进展综述
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
人脸静默活体检测最新综述
PaperWeekly
14+阅读 · 2020年8月9日
深度学习人体姿态估计算法综述
AI前线
25+阅读 · 2019年5月19日
深度学习时代的目标检测算法综述
AI前线
12+阅读 · 2017年9月22日
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员