讲座题目

工业中可解释的人工智能:Fake News Research: Theories, Detection Strategies, and Open Problems

讲座简介

人工智能在决定我们的日常经验方面越来越发挥着不可或缺的作用。此外,随着基于人工智能的解决方案在招聘、借贷、刑事司法、医疗和教育等领域的普及,人工智能对个人和职业的影响是深远的。人工智能模型在这些领域发挥的主导作用导致人们越来越关注这些模型中可能存在的偏见,以及对模型透明度和可解释性的需求。此外,模型可解释性是在需要可靠性和安全性的高风险领域(如医疗保健和自动化运输)和具有重大经济意义的关键工业应用(如预测性维护、自然资源勘探和气候变化模型。 因此,人工智能研究者和实践者把注意力集中在可解释的人工智能上,以帮助他们更好地信任和理解大规模的模型。研究界面临的挑战包括(i)定义模型可解释性,(ii)制定可解释性任务以理解模型行为并为这些任务制定解决方案,最后(iii)设计评估模型在可解释性任务中的性能的措施。 在本教程中,我们将概述人工智能中模型的可解释性和可解释性、关键法规/法律以及作为人工智能/建模语言系统一部分提供可解释性的技术/工具。然后,我们将重点关注可解释性技术在工业中的应用,其中我们提出了有效使用可解释性技术的实际挑战/指导方针,以及为多个web规模的机器学习和数据挖掘应用部署可解释模型的经验教训。我们将介绍跨不同公司的案例研究,涉及招聘、销售、贷款和欺诈检测等应用领域。最后,根据我们在行业中的经验,我们将确定数据挖掘/机器学习社区的开放性问题和研究方向。

讲座嘉宾

Krishna Gade是Fiddler Labs的创始人兼首席执行官,Fiddler Labs是一家企业初创企业,它构建了一个可解释的人工智能引擎,以解决人工智能中有关偏见、公平性和透明度的问题。克里希纳是一位企业家和工程领袖,在创建可扩展平台和令人愉悦的消费品方面有着丰富的技术经验,他曾在Facebook、Pinterest、Twitter和微软担任高级工程领导职务。他曾多次应邀在著名的从业人员论坛上发表演讲,包括在2019年的Strata Data Conference上就解决人工智能中的偏见、公平性和透明度问题发表演讲.

成为VIP会员查看完整内容
64

相关内容

【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
165+阅读 · 2020年5月27日
医疗中的自动机器学习和可解释性
专知
24+阅读 · 2019年4月1日
【工业4.0】工业人工智能与工业4.0 制造
产业智能官
17+阅读 · 2018年11月8日
人工智能与机器学习技术在医疗保健行业中的应用
深度学习与NLP
10+阅读 · 2018年3月25日
抽奖送书 | 用AlphaGo背后的人工智能做金融投资
机器学习算法与Python学习
5+阅读 · 2018年1月27日
Arxiv
9+阅读 · 2020年4月5日
Advances and Open Problems in Federated Learning
Arxiv
17+阅读 · 2019年12月10日
VIP会员
相关VIP内容
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
165+阅读 · 2020年5月27日
微信扫码咨询专知VIP会员