谷歌可解释人工智能白皮书,27页pdf,Google AI Explainability Whitepaper

2019 年 12 月 13 日 专知
谷歌可解释人工智能白皮书,27页pdf,Google AI Explainability Whitepaper

【导读】近几年,随着人工智能的迅速发展,人工智能对各行各业也产生了深远的影响。围绕人工智能建立的系统已经对医疗、交通、刑事司法、金融风险管理和社会的许多其他领域产生了巨大的价值。然而,人工智能系统仍然具有很多问题,为了保证人工智能系统的有效性和公平性,需要我们对人工智能具有深刻的理解和控制能力。所以,今天专知小编给大家带来的是Google可解释人工智能白皮书《AI Explainability Whitepaper》,总共27页pdf,主要介绍谷歌的AI平台上的AI的可解释性。


机器学习发展


人工智能的迅速发展导致现在我们现在所研究和使用的AI模型越来越复杂化,从手工规则和启发法线性模型决策树再到集成和深度模型,最后再到最近的元学习模型



这些变化已经导致了多个维度上规范的变化:


  • 可表达性(Expressiveness),使我们能够在越来越多的领域(如预测、排名、自主驾驶、粒子物理、药物发现等)拟合各种各样的功能。

  • 通用性(Versatility),解锁数据模式(图像,音频,语音,文本,表格,时间序列等),并启用联合/多模式应用。

  • 适应性(Adaptability ),通过迁移学习和多任务学习来适应小数据状态。

  • 效率(Efficiency ),通过自定义优化硬件,如gpu和TPUs,使研究人员可以更快地训练更大更复杂更强大的模型。


然而,这些更复杂更强大的模型也变得越来越不透明,再加上这些模型基本上仍然是围绕相关性和关联建立的,这导致了以下几个挑战和问题:


  • 虚假的关联性(Spurious correlations),这往往会妨碍模型的泛化能力,导致模型在现实场景下效果很差。

  • 模型的调试性和透明性的缺失(Loss of debuggability and transparency),这会导致模型难以调试和改进,同时这种透明度的缺乏阻碍了这些模型的应用,尤其是在受到监管的行业,如银行和金融或医疗保健行业。

  • 代理目标(Proxy objectives),这会导致模型在线下的效果与实际场景下的效果存在很大的出入。

  • 模型的不可控(Loss of control)

  • 不受欢迎的数据放大(Undesirable data amplification)


AI方法有:

  • 简单(基于规则且可解释)

  • 复杂的(不是可解释的)


根据应用不同,我们有明确的伦理、法律和商业理由来确保我们能够解释人工智能算法和模型如何工作。不幸的是,普通人可以解释的简单人工智能方法缺乏优化人工智能决策的准确性。许多提供最佳精度的方法,如ANN(人工神经网络),都是复杂的模型,其设计并不是为了便于解释。



如图所示,人工智能方法的准确性和可解释性之间存在着一种相反的关系。两者之间的负相关关系如下: 解释性越大,准确性越低,反之亦然


一些不太精确的模型仍然很受欢迎,因为它们具有可模拟性(因此人类可以重复它们)、完全可解释的计算过程(算法透明性)以及模型的每个部分都有一个直观的解释(可分解性)。


随着深度学习和强化学习的普及,对复杂神经网络的解释需求激增,推动了XAI工具的发展。最终目标: 实现负责任的、可追溯的、可理解的AIs


可解释人工智能 XAI


这些挑战突出了对人工智能的可解释性的需求,以使人们可控的发展人工智能。


围绕人工智能建立的系统将影响并在许多情况下重新定义医疗干预、自动交通、刑事司法、金融风险管理和社会的许多其他领域。然而,考虑到上一节所强调的挑战,这些人工智能系统的有效性和公平性将取决于我们理解、解释和控制它们的能力。


自从几十年前专家系统出现以来,XAI(可解释的AI)领域已经复苏。本文对一种严谨的科学解释的机器学习,Doshi-Velez和Kim定义为“解释性或呈现在人类可以理解的术语的能力“利用韦氏字典的定义“解释”,它适应人类和智能代理之间的交互。


谷歌的人工智能可解释白皮书(AI Explainability Whitepaper)是谷歌云的人工智能解释产品的技术参考。它的目标用户是负责设计和交付ML模型的模型开发人员和数据科学家。谷歌云的可解释产品的目标是让他们利用对AI解释性来简化模型开发,并解释模型的行为。



白皮书的目录:

  • 特征归因(Feature Attributions)

  • 特征归因的限制和使用注意事项(Attribution Limitations and Usage Considerations)

  • 解释模型元数据(Explanation Model Metadata)

  • 使用What-if工具的可视化(Visualizations with the What-If Tool)

  • 使用范例(Usage Examples)


参考链接:

https://cloud.google.com/ml-engine/docs/ai-explanations/overview



请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“GXAI” 就可以获取27页《谷歌可解释人工智能白皮书》pdf的下载链接索引~ 



-END-
专 · 知


专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看5000+AI主题知识资料
登录查看更多
10

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence

主题: Opportunities and Challenges in Explainable Artificial Intelligence (XAI): A Survey

摘要: 如今,深度神经网络已广泛应用于对医疗至关重要的任务关键型系统,例如医疗保健,自动驾驶汽车和军事领域,这些系统对人类生活产生直接影响。然而,深层神经网络的黑匣子性质挑战了其在使用中的关键任务应用,引发了引起信任不足的道德和司法问题。可解释的人工智能(XAI)是人工智能(AI)的一个领域,它促进了一系列工具,技术和算法的产生,这些工具,技术和算法可以生成对AI决策的高质量,可解释,直观,人类可理解的解释。除了提供有关深度学习当前XAI格局的整体视图之外,本文还提供了开创性工作的数学总结。我们首先提出分类法,然后根据它们的解释范围,算法背后的方法,解释级别或用法对XAI技术进行分类,这有助于建立可信赖,可解释且自解释的深度学习模型。然后,我们描述了XAI研究中使用的主要原理,并介绍了2007年至2020年XAI界标研究的历史时间表。在详细解释了每种算法和方法之后,我们评估了八种XAI算法对图像数据生成的解释图,讨论了其局限性方法,并提供潜在的未来方向来改进XAI评估。

成为VIP会员查看完整内容
0
65

主题: Explainable Reinforcement Learning: A Survey

摘要: 可解释的人工智能(XAI),即更透明和可解释的AI模型的开发在过去几年中获得了越来越多的关注。这是由于这样一个事实,即AI模型随着其发展为功能强大且无处不在的工具而表现出一个有害的特征:性能与透明度之间的权衡。这说明了一个事实,即模型的内部工作越复杂,就越难以实现其预测或决策。但是,特别是考虑到系统像机器学习(ML)这样的方法(强化学习(RL))在系统自动学习的情况下,显然有必要了解其决策的根本原因。由于据我们所知,目前尚无人提供可解释性强化学习(XRL)方法的概述的工作,因此本调查试图解决这一差距。我们对问题进行了简短的总结,重要术语的定义以及提议当前XRL方法的分类和评估。我们发现a)大多数XRL方法通过模仿和简化一个复杂的模型而不是设计本质上简单的模型来起作用,并且b)XRL(和XAI)方法通常忽略了方程的人为方面,而不考虑相关领域的研究像心理学或哲学。因此,需要跨学科的努力来使所生成的解释适应(非专家)人类用户,以便有效地在XRL和XAI领域中取得进步。

成为VIP会员查看完整内容
0
49

【导读】国际万维网大会(The Web Conference,简称WWW会议)是由国际万维网会议委员会发起主办的国际顶级学术会议,创办于1994年,每年举办一届,是CCF-A类会议。WWW 2020将于2020年4月20日至4月24日在中国台湾台北举行。本届会议共收到了1129篇长文投稿,录用217篇长文,录用率为19.2%。这周会议已经召开。来自美国Linkedin、AWS等几位学者共同给了关于在工业界中可解释人工智能的报告,讲述了XAI概念、方法以及面临的挑战和经验教训。

人工智能在我们的日常生活中扮演着越来越重要的角色。此外,随着基于人工智能的解决方案在招聘、贷款、刑事司法、医疗和教育等领域的普及,人工智能对个人和职业的影响将是深远的。人工智能模型在这些领域所起的主导作用已经导致人们越来越关注这些模型中的潜在偏见,以及对模型透明性和可解释性的需求。此外,模型可解释性是在需要可靠性和安全性的高风险领域(如医疗和自动化交通)以及具有重大经济意义的关键工业应用(如预测维护、自然资源勘探和气候变化建模)中建立信任和采用人工智能系统的先决条件。

因此,人工智能的研究人员和实践者将他们的注意力集中在可解释的人工智能上,以帮助他们更好地信任和理解大规模的模型。研究界面临的挑战包括 (i) 定义模型可解释性,(ii) 为理解模型行为制定可解释性任务,并为这些任务开发解决方案,最后 (iii)设计评估模型在可解释性任务中的性能的措施。

在本教程中,我们将概述AI中的模型解译性和可解释性、关键规则/法律以及作为AI/ML系统的一部分提供可解释性的技术/工具。然后,我们将关注可解释性技术在工业中的应用,在此我们提出了有效使用可解释性技术的实践挑战/指导方针,以及在几个网络规模的机器学习和数据挖掘应用中部署可解释模型的经验教训。我们将介绍不同公司的案例研究,涉及的应用领域包括搜索和推荐系统、销售、贷款和欺诈检测。最后,根据我们在工业界的经验,我们将确定数据挖掘/机器学习社区的开放问题和研究方向。

https://sites.google.com/view/www20-explainable-ai-tutorial

成为VIP会员查看完整内容
0
144

主题: 2019年人工智能的发展

摘要:

人工智能是一个很宽泛的概念,概括而言是对人的意识和思维过程的模拟,利用机器学习和数据分析方法赋予机器类人的能力。人工智能将提升社会劳动生产率,特别是在有效降低劳动成本、优化产品和服务、创造新市场和就业等方面为人类的生产和生活带来革命性的转变。据Sage预测,到2030年人工智能的出现将为全球GDP带来额外14%的提升,相当于15.7万亿美元的增长。全球范围内越来越多的政府和企业组织逐渐认识到人工智能在经济和战略上的重要性,并从国家战略和商业活动上涉足人工智能。全球人工智能市场将在未来几年经历现象级的增长。据中国产业信息网和中国信息通信研究院数据,世界人工智能市场将在2020年达到6800亿元人民币,复合增长率达26.2%,而中国人工智能市场也将在2020年达到710亿元人民币,复合增长率达44.5%。

我国发展人工智能具有多个方面的优势,比如开放的市场环境、海量的数据资源、强有力的战略引领和政策支持、丰富的应用场景等,但仍存在基础研究和原创算法薄弱、高端元器件缺乏、没有具备国际影响力的人工智能开放平台等短板。此份报告不但对人工智能关键技术(计算机视觉技术、自然语言处理技术、跨媒体分析推理技术、智适应学习技术、群体智能技术、自主无人系统技术、智能芯片技术、脑机接口技术等)、人工智能典型应用产业与场景(安防、金融、零售、交通、教育、医疗、制造、健康等)做出了梳理,而且同时强调人工智能开放平台的重要性,并列举百度Apollo开放平台、阿里云城市大脑、腾讯觅影AI辅诊开放平台、科大讯飞智能语音开放创新平台、商汤智能视觉开放创新平台、松鼠AI智适应教育开放平台、京东人工智能开放平台NeuHub、搜狗人工智能开放平台等典型案例呈现给读者。最后,列举国内外优秀的人工智能公司与读者共勉。随着技术的进步、应用场景的丰富、开放平台的涌现和人工智能公司的创新活动,我国整个人工智能行业的生态圈也会逐步完善,从而为智慧社会的建设贡献巨大力量。

成为VIP会员查看完整内容
2
76

【导读】最新的一期《Science》机器人杂志刊登了关于XAI—Explainable artificial intelligence专刊,涵盖可解释人工智能的简述论文,论述了XAI对于改善用户理解、信任与管理AI系统的重要性。并包括5篇专刊论文,值得一看。

BY DAVID GUNNING, MARK STEFIK, JAESIK CHOI, TIMOTHY MILLER, SIMONE STUMPF, GUANG-ZHONG YANG

SCIENCE ROBOTICS18 DEC 2019

可解释性对于用户有效地理解、信任和管理强大的人工智能应用程序是至关重要的。

https://robotics.sciencemag.org/content/4/37/eaay7120

最近在机器学习(ML)方面的成功引发了人工智能(AI)应用的新浪潮,为各种领域提供了广泛的益处。然而,许多这些系统中不能向人类用户解释它们的自主决策和行为。对某些人工智能应用来说,解释可能不是必要的,一些人工智能研究人员认为,强调解释是错误的,太难实现,而且可能是不必要的。然而,对于国防、医学、金融和法律的许多关键应用,解释对于用户理解、信任和有效地管理这些新的人工智能合作伙伴是必不可少的(参见最近的评论(1-3))。

最近人工智能的成功很大程度上归功于在其内部表示中构造模型的新ML技术。其中包括支持向量机(SVMs)、随机森林、概率图形模型、强化学习(RL)和深度学习(DL)神经网络。尽管这些模型表现出了高性能,但它们在可解释性方面是不透明的。ML性能(例如,预测准确性)和可解释性之间可能存在固有的冲突。通常,性能最好的方法(如DL)是最不可解释的,而最可解释的方法(如决策树)是最不准确的。图1用一些ML技术的性能可解释性权衡的概念图说明了这一点。

图1 ML技术的性能与可解释性权衡。

(A)学习技巧和解释能力。(B)可解释模型:学习更结构化、可解释或因果模型的ML技术。早期的例子包括贝叶斯规则列表、贝叶斯程序学习、因果关系的学习模型,以及使用随机语法学习更多可解释的结构。深度学习:一些设计选择可能产生更多可解释的表示(例如,训练数据选择、架构层、损失函数、正则化、优化技术和训练序列)。模型不可知论者:对任意给定的ML模型(如黑箱)进行试验以推断出一个近似可解释的模型的技术。

什么是XAI?

一个可解释的人工智能(XAI)系统的目的是通过提供解释使其行为更容易被人类理解。有一些通用原则可以帮助创建有效的、更人性化的人工智能系统:XAI系统应该能够解释它的能力和理解;解释它已经做了什么,现在正在做什么,接下来会发生什么; 披露其所依据的重要信息(4)。

然而,每一个解释都是根据AI系统用户的任务、能力和期望而设置的。因此,可解释性和可解释性的定义是与域相关的,并且可能不是与域独立定义的。解释可以是全面的,也可以是片面的。完全可解释的模型给出了完整和完全透明的解释。部分可解释的模型揭示了其推理过程的重要部分。可解释模型服从根据域定义的“可解释性约束”(例如,某些变量和相关变量的单调性服从特定关系),而黑箱或无约束模型不一定服从这些约束。部分解释可能包括变量重要性度量、局部模型(在特定点近似全局模型)和显著性图。

来自用户的期望

XAI假设向最终用户提供一个解释,该用户依赖于AI系统所产生的决策、建议或操作,然而可能有许多不同类型的用户,通常在系统开发和使用的不同时间点(5)。例如,一种类型的用户可能是智能分析师、法官或操作员。但是,需要对系统进行解释的其他用户可能是开发人员或测试操作员,他们需要了解哪里可能有改进的地方。然而,另一个用户可能是政策制定者,他们试图评估系统的公平性。每个用户组可能有一个首选的解释类型,能够以最有效的方式交流信息。有效的解释将考虑到系统的目标用户组,他们的背景知识可能不同,需要解释什么。

可操作性——评估和测量

一些方法提出了一些评价和衡量解释有效性的方法;然而,目前还没有通用的方法来衡量XAI系统是否比非XAI系统更容易被用户理解。其中一些度量是用户角度的主观度量,例如用户满意度,可以通过对解释的清晰度和实用性的主观评级来度量。解释有效性的更客观的衡量标准可能是任务绩效; 即,这样的解释是否提高了用户的决策能力?可靠和一致的测量解释的影响仍然是一个开放的研究问题。XAI系统的评价和测量包括评价框架、共同点[不同的思维和相互理解(6)]、常识和论证[为什么(7)]。

XAI -问题和挑战

在ML和解释的交集处仍然存在许多活跃的问题和挑战。

  1. 从电脑开始还是从人开始(8). XAI系统应该针对特定的用户进行解释吗?他们应该考虑用户缺乏的知识吗?我们如何利用解释来帮助交互式和人在循环的学习,包括让用户与解释交互以提供反馈和指导学习?

  2. 准确性与可解释性。XAI解释研究的一条主线是探索解释的技术和局限性。可解释性需要考虑准确性和保真度之间的权衡,并在准确性、可解释性和可处理性之间取得平衡。

  3. 使用抽象来简化解释。高级模式是在大步骤中描述大计划的基础。对抽象的自动发现一直是一个挑战,而理解学习和解释中抽象的发现和共享是当前XAI研究的前沿。

  4. 解释能力与解释决策。有资格的专家精通的一个标志是他们能够对新情况进行反思。有必要帮助终端用户了解人工智能系统的能力,包括一个特定的人工智能系统有哪些能力,如何衡量这些能力,以及人工智能系统是否存在盲点;也就是说,有没有一类解是永远找不到的?

从以人为本的研究视角来看,对能力和知识的研究可以使XAI超越解释特定XAI系统和帮助用户确定适当信任的角色。未来,XAIs可能最终会扮演重要的社会角色。这些角色不仅包括向个人学习和解释,而且还包括与其他代理进行协调以连接知识、发展跨学科见解和共同点、合作教授人员和其他代理,以及利用以前发现的知识来加速知识的进一步发现和应用。从这样一个知识理解和生成的社会视角来看,XAI的未来才刚刚开始。

本期刊论文

Explainable robotics in science fiction

BY ROBIN R. MURPHY

SCIENCE ROBOTICS18 DEC 2019 RESTRICTED ACCESS

我们会相信机器人吗?科幻小说说没有,但可解释的机器人可能会找到方法。

A tale of two explanations: Enhancing human trust by explaining robot behavior BY MARK EDMONDS, FENG GAO, HANGXIN LIU, XU XIE, SIYUAN QI, BRANDON ROTHROCK, YIXIN ZHU, YING NIAN WU, HONGJING LU, SONG-CHUN ZHU

SCIENCE ROBOTICS18 DEC 2019 FULL ACCESS

最适合促进信任的解释方法不一定对应于那些有助于最佳任务性能的组件。

A formal methods approach to interpretable reinforcement learning for robotic planning

BY XIAO LI, ZACHARY SERLIN, GUANG YANG, CALIN BELTA

SCIENCE ROBOTICS18 DEC 2019 FULL ACCESS

形式化的强化学习方法能从形式化的语言中获得回报,并保证了安全性。

An autonomous untethered fast soft robotic insect driven by low-voltage dielectric elastomer actuators BY XIAOBIN JI, XINCHANG LIU, VITO CACUCCIOLO, MATTHIAS IMBODEN, YOAN CIVET, ALAE EL HAITAMI, SOPHIE CANTIN, YVES PERRIARD, HERBERT SHEA

SCIENCE ROBOTICS18 DEC 2019 FULL ACCESS

参考文献:

  1. W. Samek, G. Montavon, A. Vedaldi, L. K. Hansen, K. R. Muller, Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (Springer Nature, 2019).

Google Scholar

  1. H. J. Escalante, S. Escalera, I. Guyon, X. Baró, Y. Güçlütürk, U. Güçlü, M. van Gerven, Explainable and Interpretable Models in Computer Vision and Machine Learning (Springer, 2018).

  2. O. Biran, C. Cotton, Explanation and justification in machine learning: A survey, paper presented at the IJCAI-17 Workshop on Explainable AI (XAI), Melbourne, Australia, 20 August 2017.

  3. Intelligibility and accountability: Human considerations in context-aware systems.Hum. Comput. Interact. 16, 193–212 (2009).

  4. T. Kulesza, M. Burnett, W. Wong, S. Stumpf, Principles of explanatory debugging to personalize interactive machine learning, in Proceedings of the 20th International Conference on Intelligent User Interfaces (ACM, 2015), pp. 126–137.

  5. H. H. Clark, S. E. Brennan, Grounding in communication, in Perspectives on Socially Shared Cognition, L. B. Resnick, J. M. Levine, S. D. Teasley, Eds. (American Psychological Association, 1991), pp. 127–149.

  6. D. Wang, Q. Yang, A. Abdul, B. Y. Lim, Designing theory-driven user-centric explainable AI, in Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (ACM, 2019), paper no. 601.

  1. Explanation in artificial intelligence: Insights from the social sciences. Artif. Intell. 267, 1–38(2018).

  2. D. Gunning, Explainable artificial intelligence (XAI), DARPA/I2O;www.cc.gatech.edu/~alanwags/DLAI2016/(Gunning)%20IJCAI-16%20DLAI%20WS.pdf.

成为VIP会员查看完整内容
0
76

简介: 本白皮书是Google Cloud AI解释产品随附的技术参考。 它面向负责设计和交付ML模型的模型开发人员和数据科学家。 我们的目标是让他们利用AI解释来简化模型开发并向主要利益相关者解释模型的行为。 产品经理,业务负责人和最终用户也可能会发现本白皮书的相关部分,特别是围绕AI解释的用例,以及至关重要的是围绕其正确用法及其当前限制的考虑。 具体来说,我们向这些读者介绍"用法示例"以及"归因限制和使用注意事项"部分。

白皮书的目录:

  • 特征归因(Feature Attributions)

  • 特征归因的限制和使用注意事项(Attribution Limitations and Usage Considerations)

  • 解释模型元数据(Explanation Model Metadata)

  • 使用What-if工具的可视化(Visualizations with the What-If Tool)

  • 使用范例(Usage Examples)

参考链接: https://cloud.google.com/ml-engine/docs/ai-explanations/overview

成为VIP会员查看完整内容
0
61

AI的潜在应用与带来的益处已经远远超过其他任何技术,从日常娱乐到提高生产效率,拯救生命,预计AI工具还将对联邦政府产生重大影响,并对联邦系统和结构产生音响。在享受AI好处的同时,也必须准备好应对相关风险。鉴于这项技术有可能在政府范围内转变工作,管理和预算办公室以及科学和技术政策办公司应继续带头努力管理这些风险。Parthership for public Service和IBM政府事务中心希望这份白皮书能在政府内部引发对话。尤其是:如何最好地使人工智能成为机构任务规划的一部分,而不仅仅是松散地与单独项目关联的某项技术而已。

成为VIP会员查看完整内容
0
8

本白皮书从人工智能数据安全的内涵出发,首次提出人工智能数据安全的体系架构,在系统梳理人工智能数据安全风险和安全应用情况的基础上,总结了国内外人工智能数据安全治理现状,研究提出了我国人工智能数据安全治理建议。

成为VIP会员查看完整内容
3
56
小贴士
相关论文
Qingyu Guo,Fuzhen Zhuang,Chuan Qin,Hengshu Zhu,Xing Xie,Hui Xiong,Qing He
70+阅读 · 2020年2月28日
Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI
Alejandro Barredo Arrieta,Natalia Díaz-Rodríguez,Javier Del Ser,Adrien Bennetot,Siham Tabik,Alberto Barbado,Salvador García,Sergio Gil-López,Daniel Molina,Richard Benjamins,Raja Chatila,Francisco Herrera
42+阅读 · 2019年10月22日
BAM! Born-Again Multi-Task Networks for Natural Language Understanding
Kevin Clark,Minh-Thang Luong,Urvashi Khandelwal,Christopher D. Manning,Quoc V. Le
3+阅读 · 2019年7月10日
Hongwei Wang,Fuzheng Zhang,Mengdi Zhang,Jure Leskovec,Miao Zhao,Wenjie Li,Zhongyuan Wang
9+阅读 · 2019年6月13日
Nicolas Keriven,Gabriel Peyré
4+阅读 · 2019年5月13日
Mohamed Elhoseiny,Mohamed Elfeki
4+阅读 · 2019年4月3日
Jointly Learning Explainable Rules for Recommendation with Knowledge Graph
Weizhi Ma,Min Zhang,Yue Cao, Woojeong, Jin,Chenyang Wang,Yiqun Liu,Shaoping Ma,Xiang Ren
3+阅读 · 2019年3月9日
Yongfeng Zhang,Xu Chen
10+阅读 · 2018年5月13日
Guangneng Hu,Yu Zhang,Qiang Yang
9+阅读 · 2018年4月20日
Yike Liu,Abhilash Dighe,Tara Safavi,Danai Koutra
4+阅读 · 2017年4月12日
Top