10页MIT可解释机器学习最新论文

【导读】近期涌现了大量的关于可解释性人工智能(XAI)的研究。该领域解决了复杂机器和算法常常不能为它们的行为和思考过程提供理解的问题。XAI使得用户和内部系统的部分更加透明,为它们的决策提供一定粒度的解释。本文介绍MIT的关于可解释性机器学习的最新论文《Explaining Explanations: An Overview of Interpretability of Machine Learning》。



摘要


近期涌现了大量的关于可解释性人工智能(XAI)的研究。该领域解决了复杂机器和算法常常不能为它们的行为和思考过程提供理解的问题。XAI使得用户和内部系统的部分更加透明,为它们的决策提供一定粒度的解释。这些解释对于保证算法的公平性、识别训练数据中潜在的偏见/问题以及保证算法按照预期运行有着重要的意义。然而,这些系统产生的解释并不标准化,也没有被系统性地评估。为了能够创建最好的实践和识别公开的挑战,我们描述了可解释性的基础概念,并展示如何使用它们来归类已有的工作。我们讨论了为什么当前面向解释性的方法(尤其是在深度网络上)有着不足。最后,基于我们的调研,我们总结了XAI未来可能的研究方向。


目录


  • Introduction

  • BACKGROUND AND FOUNDATIONAL CONCEPTS

    • What is an Explanation?

    • Interpretability vs. Completeness

    • Explainability of Deep Networks

  • REVIEW

    • Explanations of Deep Network Processing

    • Explanations of Deep Network Representations

    • Explanation-Producing Systems

  • RELATED WORK

    • Interpretability

    • Explainable AI for HCI

    • Explanations for Black-Box Models

    • Explainability in Other Domains

  • TAXONOMY

  • EVALUATION

    • Processing

    • Representation

    • Explanation-Producing

  • CONCLUSIONS

  • REFERENCES


 请关注专知公众号(点击上方蓝色专知关注

  • 后台回复“EEOIML” 就可以获取《Explaining Explanations: An Overview of Interpretability of Machine Learning》的下载链接~ 

论文内容




参考链接:

  • https://arxiv.org/pdf/1806.00069.pdf


-END-

专 · 知

专知《深度学习:算法到实战》课程全部完成!480+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询!

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询《深度学习:算法到实战》课程,咨询技术商务合作~

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

展开全文
Top
微信扫码咨询专知VIP会员