可解释的机器学习(interpretable ML)和用机器学习做因果推断有什么区别?

如题。 同理,又有什么相同之处?
关注者
55
被浏览
21,406
登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏

可解释机器学习的内涵比较广泛,因为不同的群体需要算法提供的解释是不同的,例如:算法研究者关注算法的透明性,就可以使用内在可解释的模型;用户往往关注可理解性,就可以使用事后解释技术。

因果推断的目的是得到变量间的因果关系,对特定群体具有一定的可解释性,往往用于帮助研究者设计出更鲁棒的算法,可以看作可解释机器学习的一个分支。