神经网络可解释性对具体应用的推动

2018 年 6 月 8 日 专知

点击上方“专知”关注获取专业AI知识!来源:知乎-Qs.Zhang张拳石

https://zhuanlan.zhihu.com/p/37638100


我很高兴近期越来越多人开始关注神经网络内部表达可解释性的问题。请登录http://qszhang.com查看UCLA团队在可解释性方向做的10+篇论文。


虽然神经网络可解释性的研究方兴未艾,但是相关课题都必须要面对一个重要问题,即“可解释性到底有什么用”?可解释性的意义看似不言而喻,但“到底有什么用”其实是个很难回答的问题。


目前神经网络可解释性领域中相关研究的用途大致可以分类为以下三个层面:


1. 神经网络知识表达的可视化、结构化、和语义化,即open the black box,让人看明白一个神经网络建模了哪些视觉特征。目前大部分关于网络可解释性的研究工作,在做这个问题。


2. 对神经网络的预测结构给出定量的评测和解释。定量的解释关系到神经网络是否能够赢得人们的信任。如果我们仅仅让神经网络在ImageNet上做图片分类,那么可解释性可能不那么重要。但是,如果人们需要神经网络做出重大判断,比如对手术方案的推荐或对金融投资方案的推荐,人们往往需要具体每个预测结果做出定量的解释,以赢得人们的信任。比如,当神经网络为某个预测结果打分为0.9,那么人们希望知道0.9中多少得分来源于因素A,多少得分来源于因素B,多少得分是很难解释出来的。


3. 无监督或弱监督地将神经网络混乱的知识表达简化为可解释的图模型表达,并基于语义层面可解释的图模型,进行“中层对端”的训练和学习。如何把神经网络的黑箱表达拆分为具有特定功能的网络模块,如何把中层卷积核的混合特征表达拆分成语义明确的特征表达,是两个挑战。进而,基于从神经网络中拆分出来的模块化语义表达,直接对神经网络的中层特征进行debug,进行弱监督学习,可能会成为不错的研究方向。这样,深度学习算法将不会被限制在“端对端”的范畴内,而是像搭积木一样直接组合中层的功能模块,实现某种新的功能,实现小样本弱监督学习。


团队的前期工作已经涵盖了以上三个方面。当然这些工作只是万里长征的第一步,把一个新的概念用数学建模起来,提出solid的解决方案,任重而道远。


【往期文章 of 可解释性】


1. 可解释性与deep learning的发展

 https://zhuanlan.zhihu.com/p/30074544


2. CNN神经网络内部知识表达的“黑”与“白”

 https://zhuanlan.zhihu.com/p/31365150


3. 关于Deep Learning未来发展的十大挑战(瓶颈)

 https://zhuanlan.zhihu.com/p/33651571


-END-

专 · 知

人工智能领域主题知识资料查看与加入专知人工智能服务群

【专知AI服务计划】专知AI知识技术服务会员群加入人工智能领域26个主题知识资料全集获取欢迎微信扫一扫加入专知人工智能知识星球群,获取专业知识教程视频资料和与专家交流咨询


请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料

请加专知小助手微信(扫一扫如下二维码添加),加入专知主题群(请备注主题类型:AI、NLP、CV、 KG等)交流~

关注专知公众号,获取人工智能的专业知识!

点击“阅读原文”,使用专知

登录查看更多
8

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
专知会员服务
72+阅读 · 2020年5月21日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
专知会员服务
197+阅读 · 2020年3月6日
【综述】金融领域中的深度学习,附52页论文下载
专知会员服务
161+阅读 · 2020年2月27日
复旦大学邱锡鹏老师《神经网络与深度学习》书册最新版
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
115+阅读 · 2019年9月24日
HAN:基于双层注意力机制的异质图深度神经网络
PaperWeekly
36+阅读 · 2019年4月23日
未来人类会关注可解释性吗?
待字闺中
5+阅读 · 2018年8月9日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
理解神经网络的激活函数
论智
7+阅读 · 2018年1月8日
CNN神经网络内部知识表达的“黑”与“白“
【深度】可解释性与deep learning的发展
机器学习研究会
6+阅读 · 2017年10月15日
【模型】主流的深度学习模型有哪些?
GAN生成式对抗网络
7+阅读 · 2017年10月3日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
Arxiv
9+阅读 · 2018年1月30日
Arxiv
5+阅读 · 2016年10月24日
VIP会员
相关VIP内容
相关资讯
HAN:基于双层注意力机制的异质图深度神经网络
PaperWeekly
36+阅读 · 2019年4月23日
未来人类会关注可解释性吗?
待字闺中
5+阅读 · 2018年8月9日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
理解神经网络的激活函数
论智
7+阅读 · 2018年1月8日
CNN神经网络内部知识表达的“黑”与“白“
【深度】可解释性与deep learning的发展
机器学习研究会
6+阅读 · 2017年10月15日
【模型】主流的深度学习模型有哪些?
GAN生成式对抗网络
7+阅读 · 2017年10月3日
Top
微信扫码咨询专知VIP会员