讲座题目

工业中可解释的人工智能:Fake News Research: Theories, Detection Strategies, and Open Problems

讲座简介

人工智能在决定我们的日常经验方面越来越发挥着不可或缺的作用。此外,随着基于人工智能的解决方案在招聘、借贷、刑事司法、医疗和教育等领域的普及,人工智能对个人和职业的影响是深远的。人工智能模型在这些领域发挥的主导作用导致人们越来越关注这些模型中可能存在的偏见,以及对模型透明度和可解释性的需求。此外,模型可解释性是在需要可靠性和安全性的高风险领域(如医疗保健和自动化运输)和具有重大经济意义的关键工业应用(如预测性维护、自然资源勘探和气候变化模型。 因此,人工智能研究者和实践者把注意力集中在可解释的人工智能上,以帮助他们更好地信任和理解大规模的模型。研究界面临的挑战包括(i)定义模型可解释性,(ii)制定可解释性任务以理解模型行为并为这些任务制定解决方案,最后(iii)设计评估模型在可解释性任务中的性能的措施。 在本教程中,我们将概述人工智能中模型的可解释性和可解释性、关键法规/法律以及作为人工智能/建模语言系统一部分提供可解释性的技术/工具。然后,我们将重点关注可解释性技术在工业中的应用,其中我们提出了有效使用可解释性技术的实际挑战/指导方针,以及为多个web规模的机器学习和数据挖掘应用部署可解释模型的经验教训。我们将介绍跨不同公司的案例研究,涉及招聘、销售、贷款和欺诈检测等应用领域。最后,根据我们在行业中的经验,我们将确定数据挖掘/机器学习社区的开放性问题和研究方向。

讲座嘉宾

Krishna Gade是Fiddler Labs的创始人兼首席执行官,Fiddler Labs是一家企业初创企业,它构建了一个可解释的人工智能引擎,以解决人工智能中有关偏见、公平性和透明度的问题。克里希纳是一位企业家和工程领袖,在创建可扩展平台和令人愉悦的消费品方面有着丰富的技术经验,他曾在Facebook、Pinterest、Twitter和微软担任高级工程领导职务。他曾多次应邀在著名的从业人员论坛上发表演讲,包括在2019年的Strata Data Conference上就解决人工智能中的偏见、公平性和透明度问题发表演讲.

成为VIP会员查看完整内容
0
43

相关内容

随着机器学习模型越来越多地用于在医疗保健和刑事司法等高风险环境中帮助决策者,确保决策者(最终用户)正确理解并信任这些模型的功能非常重要。我们将回顾了解模型的可解释性和explainability的概念,详细讨论不同类型的可说明的模型(例如,基于原型方法,稀疏线性模型、基于规则的技术,广义可加模型),事后解释(黑箱解释,包括反事实解释和显著性映射),并探索可解释性与因果性、调试和公平性之间的联系。可解释机器学习这些应用可以极大地受益于模型的可解释性,包括刑事司法和医疗保健。

成为VIP会员查看完整内容
0
108

【导读】国际万维网大会(The Web Conference,简称WWW会议)是由国际万维网会议委员会发起主办的国际顶级学术会议,创办于1994年,每年举办一届,是CCF-A类会议。WWW 2020将于2020年4月20日至4月24日在中国台湾台北举行。本届会议共收到了1129篇长文投稿,录用217篇长文,录用率为19.2%。这周会议已经召开。来自美国Linkedin、AWS等几位学者共同给了关于在工业界中可解释人工智能的报告,讲述了XAI概念、方法以及面临的挑战和经验教训。

人工智能在我们的日常生活中扮演着越来越重要的角色。此外,随着基于人工智能的解决方案在招聘、贷款、刑事司法、医疗和教育等领域的普及,人工智能对个人和职业的影响将是深远的。人工智能模型在这些领域所起的主导作用已经导致人们越来越关注这些模型中的潜在偏见,以及对模型透明性和可解释性的需求。此外,模型可解释性是在需要可靠性和安全性的高风险领域(如医疗和自动化交通)以及具有重大经济意义的关键工业应用(如预测维护、自然资源勘探和气候变化建模)中建立信任和采用人工智能系统的先决条件。

因此,人工智能的研究人员和实践者将他们的注意力集中在可解释的人工智能上,以帮助他们更好地信任和理解大规模的模型。研究界面临的挑战包括 (i) 定义模型可解释性,(ii) 为理解模型行为制定可解释性任务,并为这些任务开发解决方案,最后 (iii)设计评估模型在可解释性任务中的性能的措施。

在本教程中,我们将概述AI中的模型解译性和可解释性、关键规则/法律以及作为AI/ML系统的一部分提供可解释性的技术/工具。然后,我们将关注可解释性技术在工业中的应用,在此我们提出了有效使用可解释性技术的实践挑战/指导方针,以及在几个网络规模的机器学习和数据挖掘应用中部署可解释模型的经验教训。我们将介绍不同公司的案例研究,涉及的应用领域包括搜索和推荐系统、销售、贷款和欺诈检测。最后,根据我们在工业界的经验,我们将确定数据挖掘/机器学习社区的开放问题和研究方向。

https://sites.google.com/view/www20-explainable-ai-tutorial

成为VIP会员查看完整内容
0
179

简介: 神经网络是许多表现最佳的AI系统的基础,包括智能手机上的语音识别器或Google最新的自动翻译器,这些应用程序的巨大成功激发了人们对将神经网络应用于金融,经济,运营,市场营销,医学等许多其他领域的兴趣。在金融领域,研究人员已经在风险管理,资产定价和投资管理方面开发了一些有前途的应用程序。NN的成功很大程度上取决于其惊人的逼近特性,出色的预测性能以及可扩展性,然而,主要的问题是模型的可解释性:NN被视为黑匣子,几乎无法洞悉如何进行预测,本教程将对NN的可解释性作出响应的回答。

嘉宾介绍: Kay Giesecke,是斯坦福大学管理科学与工程教授,也是工程学院的Paul Pigott系学者。他是高级金融技术实验室的主任,也是数学和计算金融计划的主任。他在风险数据分析联盟的理事会和科学顾问委员会任职。Kay是一位金融工程师。他开发了随机财务模型,设计了用于分析财务数据的统计方法,研究了模拟和其他数值算法来解决相关的计算问题,并进行了实证分析。

成为VIP会员查看完整内容
0
21

讲座题目

从海量文本中构建和挖掘异构信息网络:Constructing and Mining Heterogeneous Information Networks from Massive Text

讲座简介

真实世界的数据主要以非结构化文本的形式存在。数据挖掘研究的一个重大挑战是开发有效且可伸缩的方法,将非结构化文本转换为结构化知识。根据我们的设想,将这些文本转换成结构化的异构信息网络是非常有益的,在这种网络上,可以根据用户的需要生成可操作的知识。在本教程中,我们将全面概述最近在这方面的研究和发展。首先,我们介绍了一系列有效的方法,从海量的、特定于领域的文本语料库中构建异构信息网络。然后讨论了基于用户需求挖掘文本丰富网络的方法。具体来说,我们关注的是可伸缩的、有效的、弱监督的、与语言无关的方法,这些方法可以处理各种文本。在真实的数据集(包括新闻文章、科学出版物和产品评论)上,我们进一步展示了如何构建信息网络,以及如何帮助进一步的探索性分析。

讲座嘉宾

Jingbo Shang(尚景波),伊利诺伊大学香槟分校计算机科学系博士生。他的研究重点是用最少的人力从大量文本语料库中挖掘和构建结构化知识。他的研究获得了多项著名奖项的认可,包括Yelp数据集挑战大奖(2015)、谷歌结构化数据和数据库管理博士研究金(2017-2019)。尚先生在大型会议(SIGMOD'17、WWW'17、sigmdd'17和sigmdd'18)上提供教程方面有丰富的经验。

成为VIP会员查看完整内容
0
39

讲座题目

社会用户兴趣挖掘:方法与应用:Social User Interest Mining: Methods and Applications

讲座简介

社交网络上丰富的用户生成内容提供了建立模型的机会,这些模型能够准确有效地提取、挖掘和预测用户的兴趣,希望能够实现更有效的用户参与、更好质量地提供适当的服务和更高的用户满意度。虽然传统的建立用户档案的方法依赖于基于人工智能的偏好获取技术,这些技术可能被用户认为是侵入性的和不受欢迎的,但最近的进展集中在确定用户兴趣和偏好的非侵入性但准确的方法上。在本教程中,我们将介绍与有效挖掘用户兴趣相关的五个重要方面: 1)用于提取用户兴趣的信息源 2)文献中提出的各类用户兴趣简介 3)为挖掘用户利益而采用或提议的技术 4)最新方法的可扩展性和资源需求 5)文献中采用的评估方法,用于验证挖掘的用户兴趣概要的适当性。我们还将介绍现有的挑战、开放的研究问题和激动人心的工作机会。

讲座嘉宾

Fattane Zarrinkalam博士是Ryerson大学系统、软件和语义实验室(LS3)的博士后研究员,她在那里从事与支持语义的社交网络分析相关的项目。在博士研究期间,她专注于根据社交网络(尤其是Twitter)上的个人和集体行为来识别社交媒体用户的兴趣。她在CIKM、ESWC和ECIR等场馆发表了自己的作品。此外,她还在包括信息检索、信息处理和管理在内的顶级期刊上发表期刊论文。此外,在她攻读博士学位期间,她参与了两项向美国专利局提出的专利申请。

成为VIP会员查看完整内容
0
33

讲座题目

公平意识机器学习:现实挑战与经验教训:Fairness-Aware Machine Learning: Practical Challenges and Lessons Learned

讲座简介

来自不同学科的研究人员和从业人员强调了使用机器学习模型和数据驱动系统所带来的伦理和法律挑战,以及由于算法决策系统的偏见,这些系统可能歧视某些群体。本教程概述了过去几年观察到的算法偏差/歧视问题,以及在机器学习系统中为实现公平性而吸取的经验教训、关键法规和法律,以及技术的发展。在为不同的消费者和企业应用开发基于机器学习的模型和系统时,我们将鼓励采用“按设计公平”的方法(而不是将算法偏差/公平考虑视为事后考虑)。然后,我们将通过展示来自不同技术公司的非专利案例研究,重点关注公平感知机器学习技术在实践中的应用。最后,根据我们在Facebook、Google、LinkedIn和Microsoft等公司致力于机器学习公平性的经验,我们将为数据挖掘/机器学习社区提出开放的问题和研究方向。

讲座嘉宾

莎拉•伯德(Sarah Bird)领导着人工智能研究与Facebook产品交叉点的战略项目。她目前的工作集中在人工智能伦理和发展规模负责任人工智能。她还一直致力于开放人工智能系统,是ONNX的共同创造者之一,ONNX是一个用于深度学习模型的开放标准,也是Pythorc1.0项目的领导者。在加入Facebook之前,她曾是微软纽约研究中心的人工智能系统研究员和微软数据集团的技术顾问。她是微软决策服务(Decision Service)背后的研究人员之一,该服务是第一个公开发布的通用强化学习型云系统。她还与人共同创立了微软人工智能伦理命运研究小组。她拥有加州大学伯克利分校(UC Berkeley)计算机科学博士学位,由戴夫·帕特森(Dave Patterson)、克里斯特·阿萨诺维奇(Krste Asanovic)和伯顿·史密斯(Burton Smith)担任顾问。Sarah共同组织了多个相关主题的研讨会(人工智能、NIPS 2018中的道德、社会和治理问题研讨会;NIPS 2018中的机器学习系统研讨会;NIPS 2017中的机器学习系统研讨会;SOSP 2017中的人工智能系统研讨会;NIPS 2016中的机器学习系统研讨会),并在2018年伯克利隐私法论坛(Berkeley Privacy Law Forum)上发表了受邀的主题演讲(“人工智能与机器学习:Facebook视角”)。

成为VIP会员查看完整内容
0
15

讲座题目

虚假新闻研究:理论、发现策略与开放性问题:Fake News Research: Theories, Detection Strategies, and Open Problems

讲座简介

虚假新闻的爆炸性增长及其对民主、正义和公众信任的侵蚀,增加了对虚假新闻研究的需求。本教程的目标是 (一)明确介绍虚假新闻的概念和特征,以及如何与其他类似概念如虚假/讽刺新闻、mis-/dis信息等进行形式区分,有助于加深对虚假新闻的认识; (二)对跨学科的基本理论进行全面审查,说明如何利用这些理论进行跨学科的虚假新闻研究,促进计算机与信息科学、政治学、新闻学、社会科学、心理学和经济学等领域的专家协同努力。这样的协同工作能够高效、可解释地发现虚假新闻; (三)系统地从四个角度(即知识、风格、传播和可信度)提出虚假新闻检测策略,以及每一个角度利用数据/图形挖掘、机器学习、自然语言处理、信息检索等技术的方法 (四)详细介绍当前虚假新闻研究中存在的问题,揭示其巨大的潜在研究机会,希望能吸引更广泛领域的研究人员开展虚假新闻检测工作,进一步促进其发展。 本教程旨在促进一个公平、健康、安全的网络信息和新闻传播生态系统,希望能吸引更多的研究人员、工程师和各种兴趣的学生进行虚假新闻研究。

讲座嘉宾

Reza Zafarani是锡拉丘兹大学EEC的助理教授。Reza的研究兴趣是社交媒体挖掘、数据挖掘、机器学习和社交网络分析。他的研究重点一直放在应对大规模数据分析的挑战上,以增强大数据的科学发现过程,特别是在社交媒体中。这些挑战包括没有基本事实的评估、快速识别大量数据集中的相关信息、利用有限信息进行学习、大规模用户行为分析和建模,以及跨多个数据源的信息集成和建模。他的研究成果已在各大学术机构发表,并在多家科学机构得到了强调。雷扎是《社交媒体挖掘:导论》一书的主要作者,该书由剑桥大学出版社和SIGKDD探索与传播前沿联合编辑编写。他是亚利桑那州立大学校长创新奖和优秀教学奖的获得者。

成为VIP会员查看完整内容
0
34

报告主题: On The Role of Knowledge Graphs in Explainable AI

嘉宾介绍: Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

报告目录:

  • 人工智能中的解释
    • 动机
    • 定义
    • 评估(以及人类在可解释性人工智能中的角色)
    • 人类作用
    • 不同AI领域的解释性
  • 知识图谱在可解释性机器学习中的角色和作用
  • 利用知识图谱在机器学习中的可解释性人工智能工业应用
  • 结论
成为VIP会员查看完整内容
ISWC2019-FreddyLecue-Thales-OnTheRoleOfKnowledgeGraphsInExplainableAI.pdf
0
54

题目: Combating Fake News: A Data Management and Mining Perspective

简介: 假新闻是对全球人民的主要威胁,导致人民对政府,新闻和公民社会的信任度下降。社交媒体和社交网络在公众中的流行引起了假新闻的蔓延,其中阴谋论,虚假信息和极端观点盛行。发现假新闻并进行缓解是当今时代的基本问题之一,已引起广泛关注。尽管事实调查网站(政府网站和大型公司,例如Google,Facebook和Twitter)已经采取了初步措施来解决假新闻,但仍有许多工作要做。本教程的目标是双重的。首先,我们希望使数据库社区熟悉其他社区在打击假新闻方面的工作。我们提供相关领域的最新研究成果,包括检测,传播,缓解和干预假新闻。接下来,我们提供数据库社区研究内容的摘要,并讨论如何将其用于抵制假新闻。

嘉宾介绍:

Laks V.S. Lakshmanan是不列颠哥伦比亚大学计算机科学系的教授。 他是BC Advanced Systems Institute的研究员,并于2016年11月被任命为ACM杰出科学家。他的研究兴趣涵盖数据库系统及相关领域的广泛主题,包括:关系数据库和面向对象的数据库,OLAP和数据仓库,数据库挖掘,数据集成,半结构化数据和XML,信息和社交网络及社交媒体,推荐系统和个性化。

Michael Simpson是不列颠哥伦比亚大学计算机科学系的博士后研究员。 他从维多利亚大学获得博士学位。 他的研究兴趣包括数据挖掘,社交网络分析以及图形问题的可伸缩算法设计。

Saravanan(Sara)Thirumuruganathan是HBKU QCRI数据分析小组的科学家。 他在德克萨斯大学阿灵顿分校获得博士学位。 他对数据集成/清理和用于数据管理的机器学习广泛感兴趣。 Saravanan的工作已入选VLDB 2018/2012最佳论文,并获得SIGMOD 2018研究重点奖。

成为VIP会员查看完整内容
0
8
小贴士
相关VIP内容
专知会员服务
108+阅读 · 2020年5月27日
相关论文
Bang Liu,Weidong Guo,Di Niu,Jinwen Luo,Chaoyue Wang,Zhen Wen,Yu Xu
8+阅读 · 2020年4月5日
Robust breast cancer detection in mammography and digital breast tomosynthesis using annotation-efficient deep learning approach
William Lotter,Abdul Rahman Diab,Bryan Haslam,Jiye G. Kim,Giorgia Grisot,Eric Wu,Kevin Wu,Jorge Onieva Onieva,Jerrold L. Boxerman,Meiyun Wang,Mack Bandler,Gopal Vijayaraghavan,A. Gregory Sorensen
11+阅读 · 2019年12月27日
Advances and Open Problems in Federated Learning
Peter Kairouz,H. Brendan McMahan,Brendan Avent,Aurélien Bellet,Mehdi Bennis,Arjun Nitin Bhagoji,Keith Bonawitz,Zachary Charles,Graham Cormode,Rachel Cummings,Rafael G. L. D'Oliveira,Salim El Rouayheb,David Evans,Josh Gardner,Zachary Garrett,Adrià Gascón,Badih Ghazi,Phillip B. Gibbons,Marco Gruteser,Zaid Harchaoui,Chaoyang He,Lie He,Zhouyuan Huo,Ben Hutchinson,Justin Hsu,Martin Jaggi,Tara Javidi,Gauri Joshi,Mikhail Khodak,Jakub Konečný,Aleksandra Korolova,Farinaz Koushanfar,Sanmi Koyejo,Tancrède Lepoint,Yang Liu,Prateek Mittal,Mehryar Mohri,Richard Nock,Ayfer Özgür,Rasmus Pagh,Mariana Raykova,Hang Qi,Daniel Ramage,Ramesh Raskar,Dawn Song,Weikang Song,Sebastian U. Stich,Ziteng Sun,Ananda Theertha Suresh,Florian Tramèr,Praneeth Vepakomma,Jianyu Wang,Li Xiong,Zheng Xu,Qiang Yang,Felix X. Yu,Han Yu,Sen Zhao
17+阅读 · 2019年12月10日
Explainable Recommendation: A Survey and New Perspectives
Yongfeng Zhang,Xu Chen
50+阅读 · 2019年8月15日
UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction
Leland McInnes,John Healy,James Melville
7+阅读 · 2018年12月6日
Speeding-up Object Detection Training for Robotics with FALKON
Elisa Maiettini,Giulia Pasquale,Lorenzo Rosasco,Lorenzo Natale
6+阅读 · 2018年8月27日
Classification with Fairness Constraints: A Meta-Algorithm with Provable Guarantees
L. Elisa Celis,Lingxiao Huang,Vijay Keswani,Nisheeth K. Vishnoi
3+阅读 · 2018年8月2日
Ervin Teng,Rui Huang,Bob Iannucci
7+阅读 · 2018年3月27日
Mark Sandler,Andrew Howard,Menglong Zhu,Andrey Zhmoginov,Liang-Chieh Chen
9+阅读 · 2018年1月16日
Damla Kizilay,Deniz T. Eliiyi,Pascal Van Hentenryck
3+阅读 · 2017年12月14日
Top
微信扫码咨询专知VIP会员