主题: Interpretable survival gradient boosting models with bagged trees base learners

摘要: 本文提出了一种以bagged trees为基础学习的基于ongradient-boosting的生存分析建模方法,该方法由单变量模型的可加性成分和它们之间的交互作用组成,使得模型具有直观的可解释性。我们表明,我们的方法产生竞争力的结果往往具有预测能力高于全复杂模型。

成为VIP会员查看完整内容
0
1

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

主题: Machine learning for protein engineering

摘要: 机器学习指导的蛋白质工程是一种新的范例,可以优化复杂的蛋白质功能。 机器学习方法使用数据来预测蛋白质功能,而无需详细的基础物理或生物学途径模型。

成为VIP会员查看完整内容
0
7

题目: A Game Theoretic Framework for Model Based Reinforcement Learning

摘要: 基于模型的强化学习(MBRL)最近获得了极大的兴趣,因为它具有潜在的样本效率和合并非策略数据的能力。然而,使用富函数逼近器设计稳定、高效的MBRL算法仍然具有挑战性。为了从抽象的角度揭示MBRL的实际挑战并简化算法设计,我们开发了一个新的框架,将MBRL描述为:(1)一个策略参与者,它试图在学习模型下最大化回报;(2)一个模型player,它试图与策略player收集的真实数据相匹配。在算法开发方面,我们构造了一个双方参与的Stackelberg博弈,并证明了它可以用近似的双层优化来解决。这就产生了两种自然的MBRL算法,基于这两种算法,玩家被选择为Stackelberg游戏的领导者。它们一起封装、统一和泛化了许多以前的MBRL算法。此外,我们的框架是一致的,并提供了一个明确的基础启发式已知是重要的实践,从以往的工作。最后,通过实验验证了所提出的算法具有较高的样本效率,匹配无模型策略梯度的渐近性能,并能扩展到灵巧手操作等高维任务。

成为VIP会员查看完整内容
0
22

统计学习理论是一个新兴的研究领域,它是概率论、统计学、计算机科学和最优化的交叉领域,研究基于训练数据进行预测的计算机算法的性能。以下主题将包括:统计决策理论基础;集中不平等;监督学习和非监督学习;经验风险最小化;complexity-regularized估计;学习算法的泛化界VC维与复杂性;极大极小下界;在线学习和优化。利用一般理论,我们将讨论统计学习理论在信号处理、信息论和自适应控制方面的一些应用。

成为VIP会员查看完整内容
0
56

本文研究了利用深度神经网络(DNN)联合预测多金融时间序列(TS)的困难。我们研究基于DNN的模型是否可以通过直接学习它们的表示形式来更有效地预测这些TS。为此,我们利用动态因子图(DFG),我们提出了一种新的基于变长注意力的机制,使它的记忆增强。利用这一机制,我们提出了一种用于多元TS预测的无监督DNN架构,该架构允许学习和利用这些TS之间的关系。我们在覆盖19年投资基金活动的两个数据集上测试了我们的模型。我们的实验结果表明,我们提出的方法在预测21天价格轨迹方面明显优于典型的基于DNN和统计模型。

成为VIP会员查看完整内容
0
17

题目: Background Knowledge Injection forInterpretable Sequence Classification

摘要: 序列分类是一项有监督的学习任务,它建立模型来预测未知符号序列的类标签。尽管准确性是最重要的,但在某些情况下,可解释性是必须的。不幸的是,我们回溯了人类独立的可解释性度量,这样的权衡通常很难实现。我们介绍了一种新的序列学习算法,它结合了(i)线性分类器,已知线性分类器在预测能力和可解释性之间取得了很好的平衡,以及(ii)背景知识嵌入。我们将经典的子序列特征空间扩展为由嵌入字或图的背景知识生成的符号组,并利用这个新的特征空间学习线性分类器。提出了一种新的基于符号嵌入的符号特征集可解释性评价方法。从可穿戴设备和氨基酸序列分类中识别人类活动的实验表明,我们的分类方法保留了预测能力,同时提供了更多的可解释模型。

作者简介: Severin Gsponer,都柏林大学学院数据分析洞察中心博士生。

Luca Costabello,都柏林大学学院埃森哲实验室,研究科学家。等

成为VIP会员查看完整内容
0
8

题目: Breaking the interpretability barrier - a methodfor interpreting deep graph convolutional models

摘要: 与基于图像的卷积网络相比,图卷积神经网络的可解释性具有更大的挑战性,因为图的节点之间没有显示出清晰的空间关系(就像图像一样)。本文探讨了一种计算图卷积分类模型节点相关信息的方法。为此,我们采用梯度CAM算法,通过替换图像中严重依赖像素二维空间关系的部分,在梯度CAM结果中通过其外观计数来估计节点的重要性。我们的策略是针对具有相关领域特定假设的现实问题而定义的;因此,我们另外提出了一种系统生成人工数据的方法,该方法与现实数据具有相似的属性,以评估学习过程和解释方法的通用性。实际数据用完整的加权图表示。通过应用稀疏化策略,初步的结果表明图中的信息节点可以被识别。

作者简介: Raul Cristian Muresan,博士,克鲁伊·纳波卡特兰西瓦尼亚神经科学研究所实验和理论神经科学实验室主任(罗马尼亚)。特兰西瓦尼亚神经科学研究所董事会主席克鲁·纳波卡(罗马尼亚)。法兰克福马克斯普朗克脑研究所附属研究员(德国)。等

成为VIP会员查看完整内容
0
12

机器学习可解释性,Interpretability and Explainability in Machine Learning

  • Overview As machine learning models are increasingly being employed to aid decision makers in high-stakes settings such as healthcare and criminal justice, it is important to ensure that the decision makers (end users) correctly understand and consequently trust the functionality of these models. This graduate level course aims to familiarize students with the recent advances in the emerging field of interpretable and explainable ML. In this course, we will review seminal position papers of the field, understand the notion of model interpretability and explainability, discuss in detail different classes of interpretable models (e.g., prototype based approaches, sparse linear models, rule based techniques, generalized additive models), post-hoc explanations (black-box explanations including counterfactual explanations and saliency maps), and explore the connections between interpretability and causality, debugging, and fairness. The course will also emphasize on various applications which can immensely benefit from model interpretability including criminal justice and healthcare.
成为VIP会员查看完整内容
0
17

主题: Medical decision analysis with probabilistic graphical models

摘要: 概率图模型(PGMs)如贝叶斯网络、影响图、马尔可夫决策过程等,在医学领域的应用已有几十年的历史。本教程回顾了主要模型,提出了解决实际工作健康问题的新型模型和算法,包括时间推理和成本效益分析,并讨论了这些方法相对于卫生经济学中常用方法的优势,为PGMs开发了许多软件工具。

邀请嘉宾: Francisco Javier Díez Vegas,博士,西班牙马德里联合国教科文组织人工智能部智能决策智能系统研究中心(CISIAD)主任,联合国开发计划署署长。

成为VIP会员查看完整内容
0
11
Top