2021年,CHI将首次来到日本,在东京西南方的横滨市举行。ACM (Association for Computing Machinery)CHI(计算系统人类因素会议)是人机交互领域最重要的国际会议。CHI(读作“kai”)是世界各地研究者和实践者齐聚一堂,探讨交互技术最新进展的地方。CHI被普遍推崇为人机交互领域最具声望的殿堂,每年吸引数千名国际参会者。

人工智能(AI)技术越来越多地用于在医疗保健、金融和就业等关键领域做出决策和执行自主任务。为了改进、竞争、建立适当的信任和更好地与人工智能系统交互,需要了解人工智能,这激发了学术界和公众对可解释人工智能(XAI)的极大兴趣。一方面,快速增长的XAI技术集合允许在AI系统中合并不同的解释风格。另一方面,通过人工智能解释来提供令人满意的用户体验需要以用户为中心的方法和跨学科研究来连接用户需求和技术支持。简而言之,XAI是一个对HCI研究有着日益增长的需求和令人兴奋的机会的领域。

本教程面向有志于开发和设计人工智能系统解释功能的研究人员和实践者,以及那些希望了解XAI文献中的趋势和核心主题的人。该课程将介绍一些可用的工具包,这些工具包有助于轻松地创建ML模型的解释,包括AIX 360[1],这是一个全面的工具包,提供有关该主题的技术和教育资源,如XAI概念介绍、python代码库和教程。

我们也将借鉴我们自己的设计和研究XAI系统的经验[3-8],以及从工业设计从业者[2]学习,讨论机会和挑战,把最先进的XAI技术融入AI系统,创造好的XAI用户体验,包括我们通过研究开发的“问题驱动的XAI设计流程”[9]。

https://hcixaitutorial.github.io/

  • 什么是可解释AI (XAI)?
  • XAI解决了哪些问题? XAI在不同研究领域(如机器学习、人机交互)的工作重点是什么?
  • 为什么XAI很重要?
  • XAI的动机是什么?XAI是负责任的人工智能的基础?
  • 如何解释人工智能?
  • XAI最先进的技术是什么?
  • 如何设计XAI用户体验?
  • XAI用户体验的设计方法和指导方针是什么?设计上的挑战是什么?探索了哪些解决方案?
  • XAI从哪里开始呢?
  • 在哪里可以找到实现XAI技术和设计XAI UX的相关资源?

参考文献:

[1] Arya, V., Bellamy, R. K., Chen, P. Y., Dhurandhar, A., Hind, M., Hoffman, S. C., … & Mourad, S. (2019). One explanation does not fit all: A toolkit and taxonomy of ai explainability techniques.

[2] Liao, Q. V., Gruen, D., & Miller, S. (2020). Questioning the AI: Informing Design Practices for Explainable AI User Experiences. CHI 2020

[3] Dodge, J., Liao, Q. V., Zhang, Y., Bellamy, R. K., & Dugan, C (2019). Explaining models: an empirical study of how explanations impact fairness judgmen. IUI 2019

[4] Zhang, Y., Liao, Q. V., & Bellamy, R. K. (2019). ffect of confidence and explanation on accuracy and trust calibration in ai-assisted decision making. . FAT* 2020

[5] Ghai, B., Liao, Q. V., Zhang, Y., Bellamy, R., & Mueller, K. (2021). Explainable Active Learning (XAL) Toward AI Explanations as Interfaces for Machine Teachers. CSCW 2021

[7] Narkar, S., Zhang, Y., Liao, Q. V., Wang, D., & Weisz, J. D. Model LineUpper: Supporting Interactive Model Comparison at Multiple Levels for AutoML. IUI 2021

[8] Ehsan, U., Liao, Q. V., Muller, M., Riedl, M. O., & Weisz, J. D. (2021). Expanding Explainability: Towards Social Transparency in AI systems. CHI 2021

[9] Liao, Q. V., Pribić, M., Han, J., Miller, S., & Sow, D. (2021). Question-Driven Design Process for Explainable AI User Experiences. Working Paper

成为VIP会员查看完整内容
117

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
最新《可解释人工智能》概述,50页ppt
专知会员服务
126+阅读 · 2021年3月17日
DARPA可解释人工智能
专知会员服务
122+阅读 · 2020年12月22日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
159+阅读 · 2019年12月21日
【干货书】计算机科学离散数学,627页pdf
专知
53+阅读 · 2020年8月31日
AAAI 2020 最新“可解释人工智能 XAI”教程
学术头条
5+阅读 · 2020年2月11日
【综述】医疗可解释人工智能综述论文
专知
32+阅读 · 2019年7月18日
CCCF译文 | 机器学习如何影响本科生计算机课程
中国计算机学会
6+阅读 · 2019年2月18日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
5+阅读 · 2018年1月16日
VIP会员
微信扫码咨询专知VIP会员