在人工智能能力快速发展与伦理审查日益严格的时代背景下,对透明且可信的机器学习解决方案的需求比以往任何时候都更加迫切。在医疗、刑事司法与金融服务等高风险领域,复杂的 AI 系统被广泛部署,并可能对人类生活产生深远影响。然而,由于其决策过程高度不透明,这些系统的结果往往难以为受其影响的个体所理解。这种缺乏透明性的现象不仅引发了伦理担忧,也为实践者带来现实挑战——他们必须确保这些系统在真实场景中的运行符合预期。 本论文探讨了在机器学习中逼近不同类型“真理”的挑战,并提出了方法学改进,以推进局部可解释性与因果推断的发展。可解释人工智能(XAI)方法旨在揭示黑箱模型的内部运作机制,而因果推断技术则致力于揭示驱动观测现象的底层机制。二者结合形成了一个理解的综合框架——XAI 解释我们对现实的模型,而因果推断解释现实本身。贯穿全文,我关注于改进多种真理概念的逼近:因果真理、模型真理以及真实数据分布。 我的研究首先针对局部模型解释的基础性局限提出改进,提出 Neighbourhood SHAP 值,该方法利用局部参考分布提供更有意义的特征归因,更好地反映局部模型行为,并展现出更强的对抗分类器鲁棒性。在此基础上,我进一步提出 Path-Wise Shapley 效应(PWSHAP),通过将用户定义的因果结构与 Shapley 值结合,评估变量在特定因果路径中的影响,从而连接预测建模与因果理解。超越模型解释迈向直接因果推断,我提出 BICauseTree,一种可解释的平衡方法,用于识别局部自然实验发生的聚类,检测存在正性假设违背的子群体,同时明确界定有效推断群体。最后,我探讨了在因果研究中安全评估数据集价值的挑战,提出了 期望信息增益(Expected Information Gain)框架,允许数据提供方在不泄露敏感信息的前提下评估数据合并的潜力。 总体而言,这些方法学创新在可解释 AI 与因果 AI的理论理解与实践应用上均有所推进,提供了提升透明性、改进决策支持、并增强 AI 系统在高风险领域中可信度的解决方案。