主题: Safe and Fair Machine Learning

简介:

在这个演讲将讨论一些我们的未来的工作在一个新的框架设计的机器学习算法,内容包括:1)使得算法的用户更容易定义他们认为是不受欢迎的行为(例如,他们认为是不公平的,不安全,或者成本);2)提供了一个高信任度保证它不会产生一个解决方案,展示了用户定义的不受欢迎的行为。

作者简介:

Philip Thomas是马萨诸塞大学安姆斯特分校信息与计算机科学学院助理教授,自主学习实验室联合主任。之前是卡内基·梅隆大学(CMU)的博士后,2015年,在马萨诸塞州立大学阿默斯特分校(UMass Amherst)获得了计算机科学博士学位。主要研究如何确保人工智能(AI)系统的安全性,重点是确保机器学习(ML)算法的安全性和公平性以及创建安全和实用的强化学习(RL)算法。

成为VIP会员查看完整内容
0
5

相关内容

监督学习是指:利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,也称为监督训练或有教师学习。 监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。

题目: Review of Mathematical frameworks for Fairness in Machine Learning

摘要:

从数学的角度回顾了过去几年文献中提出的主要公平定义和公平学习方法。根据基于独立的方法,考虑如何构建公平的算法,以及与可能不公平的情况相比,算法性能下降的后果。这相当于公平的价格由标准统计均等或机会均等给出。给出了最优公平分类器和最优公平预测器(在线性回归高斯模型下)在机会均等意义下的新结果。

成为VIP会员查看完整内容
0
20

讲座题目

公平意识机器学习:现实挑战与经验教训:Fairness-Aware Machine Learning: Practical Challenges and Lessons Learned

讲座简介

来自不同学科的研究人员和从业人员强调了使用机器学习模型和数据驱动系统所带来的伦理和法律挑战,以及由于算法决策系统的偏见,这些系统可能歧视某些群体。本教程概述了过去几年观察到的算法偏差/歧视问题,以及在机器学习系统中为实现公平性而吸取的经验教训、关键法规和法律,以及技术的发展。在为不同的消费者和企业应用开发基于机器学习的模型和系统时,我们将鼓励采用“按设计公平”的方法(而不是将算法偏差/公平考虑视为事后考虑)。然后,我们将通过展示来自不同技术公司的非专利案例研究,重点关注公平感知机器学习技术在实践中的应用。最后,根据我们在Facebook、Google、LinkedIn和Microsoft等公司致力于机器学习公平性的经验,我们将为数据挖掘/机器学习社区提出开放的问题和研究方向。

讲座嘉宾

莎拉•伯德(Sarah Bird)领导着人工智能研究与Facebook产品交叉点的战略项目。她目前的工作集中在人工智能伦理和发展规模负责任人工智能。她还一直致力于开放人工智能系统,是ONNX的共同创造者之一,ONNX是一个用于深度学习模型的开放标准,也是Pythorc1.0项目的领导者。在加入Facebook之前,她曾是微软纽约研究中心的人工智能系统研究员和微软数据集团的技术顾问。她是微软决策服务(Decision Service)背后的研究人员之一,该服务是第一个公开发布的通用强化学习型云系统。她还与人共同创立了微软人工智能伦理命运研究小组。她拥有加州大学伯克利分校(UC Berkeley)计算机科学博士学位,由戴夫·帕特森(Dave Patterson)、克里斯特·阿萨诺维奇(Krste Asanovic)和伯顿·史密斯(Burton Smith)担任顾问。Sarah共同组织了多个相关主题的研讨会(人工智能、NIPS 2018中的道德、社会和治理问题研讨会;NIPS 2018中的机器学习系统研讨会;NIPS 2017中的机器学习系统研讨会;SOSP 2017中的人工智能系统研讨会;NIPS 2016中的机器学习系统研讨会),并在2018年伯克利隐私法论坛(Berkeley Privacy Law Forum)上发表了受邀的主题演讲(“人工智能与机器学习:Facebook视角”)。

成为VIP会员查看完整内容
0
8

教程题目:Adversarial Machine Learning

教程简介

近年来,机器学习在广泛的行业和应用领域得到了显著的普及。机器学习技术的许多应用本质上是对抗性的,因为其目标是将“坏的”实例与“好的”实例区分开来。事实上,对抗性的使用远远超出了这个简单的分类示例:对恶意软件的法医分析,包括集群、异常检测,甚至自动驾驶汽车上的视觉系统,都可能受到攻击。针对这些问题,出现了一个关于对抗性机器学习的新兴文献,它涵盖了对机器学习算法漏洞的分析,以及产生更健壮学习的算法技术。

本教程将从网络安全和机器学习研究领域中广泛调查这些问题和技术。特别考虑了对抗性分类器规避(攻击者改变行为以避免被检测到)和训练数据本身已损坏的问题。还讨论了逃避攻击和中毒攻击,首先讨论了分类器,然后讨论了其他学习范例和相关的防御技术。然后,我们考虑用于攻击和防御神经网络的专门技术,特别是专注于深度学习技术及其对逆向构建实例的脆弱性。

组织者:

Bo Li是伊利诺伊大学香槟分校计算机科学系的助理教授。她的研究兴趣在于对抗性的深度学习、安全性、隐私和博弈论。她开发并分析了可伸缩的健壮学习框架,用于在对抗规避攻击的环境中学习算法。她还分析了物理世界中对抗学习算法的行为。她是赛门铁克研究实验室研究生奖学金的获得者。她于2016年获得范德比尔特大学博士学位。

Dawn Song是加州大学伯克利分校电气工程和计算机科学系的教授。她的研究兴趣在于深度学习和安全性。她研究了计算机系统和网络中的各种安全和隐私问题,包括从软件安全、网络安全、数据库安全、分布式系统安全、应用密码学到机器学习和安全的交叉领域。她是获得各种奖项,包括麦克阿瑟奖学金,古根海姆奖学金,NSF事业奖,斯隆研究奖学金,麻省理工学院技术评论TR-35奖,乔治Tallman Ladd研究奖,小川基金会研究奖,李嘉诚基金会女性在科学卓越系列讲座奖,教师从IBM研究奖,谷歌和其他主要科技公司,从上会议最佳论文奖。她在加州大学伯克利分校获得了博士学位。在加入加州大学伯克利分校之前,她曾于2002年至2007年在卡内基梅隆大学(Carnegie Mellon University)担任助理教授。

Yevgeniy Vorobeychik是圣路易斯华盛顿大学计算机科学与工程学院的副教授。此前,他是桑迪亚国家实验室的首席研究科学家。2008年至2010年,他是宾夕法尼亚大学计算机与信息科学系的博士后研究员。他获得了密歇根大学的计算机科学与工程博士学位(2008)和硕士学位(2004),以及西北大学的计算机工程学士学位。他的工作重点是安全与隐私的博弈论建模,对抗机器学习,算法和行为博弈论和激励设计,优化,基于代理的建模,复杂系统,网络科学,流行病控制。Vorobeychik博士在2017年获得了美国国家科学基金会职业成就奖,并受邀发表了ijcai16早期职业聚焦演讲。他被提名为2008年ACM博士学位论文奖,并获得了2008年IFAAMAS杰出论文奖的荣誉奖。

教程ppt下载链接: 链接:https://pan.baidu.com/s/1YDWJ2lFhiLRtNDpH4YyZLg 提取码:ccra

成为VIP会员查看完整内容
0
18

近几年来,随着机器学习的普及,机器学习系统的公平性问题引起了实际的道德、社会等问题。图书《公平性与机器学习—局限与机遇》以公平性为核心问题来看待机器学习,提供了对当前机器学习实践以及为实现公平而提出的技术修复方案的批判性思考。

成为VIP会员查看完整内容
Fairness+and+Machine+Learning.pdf
0
21

主题: Scalable and Robust Multi-Agent Reinforcement Learning

简介: 本演讲将涵盖我们最近的多智能体强化学习方法,这些方法用于协调沟通有限或没有交流的智能体团队。这些方法将包括深入的多主体增强学习方法和学习异步策略的分层方法,这些方法实际上允许针对不同主体在不同时间进行学习和/或执行。这些方法可扩展到较大的空间和视野,并且对于其他代理学习引起的非平稳性具有鲁棒性。将显示来自基准域和多机器人域的结果。

作者简介: Christopher Amato,美国东北大学教授,研究兴趣包括人工智能,机器人技术,多智能体和多机器人系统,不确定性下的推理,博弈论和机器学习。

成为VIP会员查看完整内容
0
7

主题: Learning for policy improvement

摘要: 强化学习在经验易获得的领域取得了许多成功,如电子游戏或棋盘游戏。这类区域的RL算法通常基于梯度下降:它们以较小的学习率进行许多噪声更新。相反,我们研究每次更新花费更多计算的算法,试图减少噪声并进行更大的更新;当经验比计算时间更昂贵时,这样的算法是合适的。特别地,我们看几种基于近似策略迭代的方法。

作者简介: Geoff Gordon博士是微软研究蒙特勒实验室的研究主任,也是卡内基梅隆大学机器学习系的教授。他还担任过机械学习系的临时系主任和教育副系主任。戈登博士的研究集中在能够进行长期思考的人工智能系统上,比如提前推理以解决问题、计划一系列行动或从观察中推断出看不见的特性。特别是,他着眼于如何将机器学习与这些长期思考任务结合起来。1991年,戈登博士在康奈尔大学获得计算机科学学士学位,1999年在卡内基梅隆大学获得计算机科学博士学位。他的研究兴趣包括人工智能、统计机器学习、教育数据、博弈论、多机器人系统,以及概率、对抗和一般和领域的规划。他之前的任命包括斯坦福大学计算机科学系的客座教授和圣地亚哥燃烧玻璃技术的首席科学家。

成为VIP会员查看完整内容
0
6

题目: Machine Learning Meets Big Spatial Data

简介: 生成数据量的激增推动了可伸缩的机器学习解决方案的兴起,从而可以有效地分析此类数据并从中提取有用的见解。同时,近年来,空间数据已经变得无处不在,例如GPS数据。大空间数据的应用涉及广泛的领域,包括跟踪传染病,模拟气候变化,吸毒成瘾等等。因此,通过提供对现有机器学习解决方案的空间扩展或从头开始构建新的解决方案,人们付出了巨大的努力来支持这些应用程序内部的有效分析和智能。在这个90分钟的教程中,我们全面回顾了机器学习和大空间数据交汇处的最新技术。我们涵盖了机器学习三个主要领域中的现有研究工作和挑战,即数据分析,深度学习和统计推断,以及两个高级空间机器学习任务,即空间特征提取和空间采样。我们还强调了该领域未来研究中存在的开放性问题和挑战。

嘉宾介绍: Ibrahim Sabek是明尼苏达大学计算机科学与工程系的博士候选人。 他获得了理学硕士学位。 他于2017年在同一部门获得博士学位。他的研究兴趣在于大空间数据管理,空间计算和可伸缩机器学习系统之间的交叉领域。 易卜拉欣已获得ACM SIGSPATIAL 2018最佳论文奖的提名,并获得了ACM SIGMOD学生研究竞赛(SRC)2017决赛阶段的资格。在博士期间,他与NEC Labs America和Microsoft Research(MSR)合作 )。 易卜拉欣在ACM TSAS,IEEE ICDE,ACM SIGSPATIAL,IEEE TMC等顶级研究机构发表了许多论文,并在VLDB和ACM SIGMOD上展示了他的工作。

Mohamed F.Mokbel是卡塔尔计算研究所的首席科学家,也是明尼苏达大学的教授。 他目前的研究兴趣集中于大空间数据和应用程序的系统和机器学习技术。 他的研究工作已获得VLDB十年最佳论文奖,四个会议最佳论文奖和NSF职业奖。 除了在其他社区的一线场所(包括IEEE ICDM和ACM CCS)的教程之外,穆罕默德还在VLDB / SIGMOD / ICDE / EDBT会议上提供了六篇教程。 这些教程都不会与本教程建议重叠。 穆罕默德(Mohamed)是ACM SIGPATIAL的当选主席,目前是分布式和并行数据库期刊的主编,并且是ACM Books,ACM TODS,VLDB Journal,ACM TSAS和GoeInformatica期刊的编辑委员会成员。

成为VIP会员查看完整内容
0
21

主题: Introduction to Machine Learning

课程简介: 机器学习是指通过经验自动提高性能的计算机程序(例如,学习识别人脸、推荐音乐和电影以及驱动自主机器人的程序)。本课程从不同的角度介绍机器学习的理论和实用算法。主题包括贝叶斯网络、决策树学习、支持向量机、统计学习方法、无监督学习和强化学习。本课程涵盖理论概念,例如归纳偏差、PAC学习框架、贝叶斯学习方法、基于边际的学习和Occam的剃刀。编程作业包括各种学习算法的实际操作实验。这门课程的目的是让一个研究生在方法论,技术,数学和算法方面有一个彻底的基础,目前需要的人谁做的机器学习的研究。

邀请嘉宾: Hal Daumé III,纽约市微软研究院的研究员,是机器学习小组的一员;他也是马里兰大学的副教授。他主要从事自然语言处理和机器学习。

Matt Gormley,卡内基梅隆大学计算机科学学院机器学习部(ML)助教。

Roni Rosenfeld,卡内基梅隆大学计算机学院机器学习系教授兼主任,个人主页:https://www.cs.cmu.edu/~roni/。等

成为VIP会员查看完整内容
0
33

题目: Safe Machine Learning

简介:

随着我们将ML应用到越来越多的现实任务中,我们正在走向一个ML将在未来社会中扮演越来越重要角色。因此,解决安全问题正成为一个日益紧迫的问题。一般来说,我们可以将当前的安全研究分为三个领域:规范、健壮性和保证。规范关注于调查和开发技术,以减轻由于目标仅仅是期望的替代者而可能出现的系统不期望的行为。这种情况可能会发生,例如,当对包含历史偏差的数据集进行训练时,或者在真实环境中尝试度量增强学习智能体的进度时鲁棒性处理在推断新数据和响应敌对输入时处理系统故障。

Assurance涉及到开发方法,使我们能够理解本质上不透明和黑箱的系统,并在操作期间控制它们。本教程将概述这三个领域,特别关注规范,更具体地说,关注增强学习智能体的公平性和一致性。其目的是激发从事不同安全领域的研究人员之间的讨论。

邀请嘉宾:

Silvia Chiappa是DeepMind机器学习方面的研究科学家。她拥有数学文凭和机器学习博士学位。在加入DeepMind之前,Silvia Chiappa曾在马克斯-普朗克智能系统研究所的经验推理部门、微软剑桥研究院的机器智能与感知小组以及剑桥大学的统计实验室工作。她的研究兴趣是基于贝叶斯和因果推理,图形模型,变分推理,时间序列模型,ML公平性和偏差。

Jan Leike是DeepMind的高级研究科学家,他在那里研究智能体对齐问题。他拥有澳大利亚国立大学的计算机科学博士学位,在那里他致力于理论强化学习。在加入DeepMind之前,他是牛津大学的博士后研究员。Jan的研究兴趣是人工智能安全、强化学习和技术人工智能治理。

成为VIP会员查看完整内容
0
12

主题: Exploration-Exploitation in Reinforcement Learning

摘要: 强化学习(RL)研究的是当环境(即动力和反馈)最初未知,但可以通过直接交互学习时的顺序决策问题。学习问题的一个关键步骤是恰当地平衡对环境的探索,以便收集有用的信息,并利用所学的政策来收集尽可能多的回报。最近的理论结果证明,基于乐观主义或后验抽样的方法(如UCRL、PSRL等)成功地解决了勘探开发难题,并且可能需要比简单(但非常流行)的技术(如epsilon贪心)小指数的样本来收敛到接近最优的策略。乐观主义和后验抽样原则直接受到多臂bandit文献的启发,RL提出了具体的挑战(例如,“局部”不确定性如何通过Markov动力学传播),这需要更复杂的理论分析。本教程的重点是提供勘探开发困境的正式定义,讨论其挑战,并回顾不同优化标准(特别是有限时间和平均回报问题)的主要算法原则及其理论保证。在整个教程中,我们将讨论开放的问题和未来可能的研究方向。

邀请嘉宾: Ronan Fruit,Inria SequeL团队的博士生。他目前是蒙特利尔Facebook人工智能研究(FAIR)的研究实习生。他的研究集中在理论上理解强化学习中的探索性开发困境,以及设计具有可证明的良好后悔保证的算法。

Alessandro Lazaric,自2017年以来一直是Facebook AI Research(FAIR)实验室的研究科学家,他之前是SequeL团队Inria的研究员。他的主要研究主题是强化学习,在RL的理论和算法方面都做出了巨大贡献。在过去的十年中,他研究了多臂土匪和强化学习框架中的勘探与开发困境,特别是在遗憾最小化,最佳武器识别,纯粹探索和分层RL等问题上。

Matteo Pirotta,巴黎Facebook人工智能研究(FAIR)实验室的研究科学家。之前,他是SequeL团队的Inria博士后。2016年,他在米兰理工大学(意大利)获得计算机科学博士学位。他在强化学习方面的博士论文获得了Dimitris N.Chorafas基金会奖和EurAI杰出论文奖。他的主要研究兴趣是强化学习。近几年来,他主要关注的是RL的勘探开发困境。

成为VIP会员查看完整内容
0
16
小贴士
相关VIP内容
【CMU】机器学习导论课程(Introduction to Machine Learning)
专知会员服务
33+阅读 · 2019年8月26日
相关资讯
层级强化学习概念简介
CreateAMind
10+阅读 · 2019年6月9日
清华朱军教授:机器学习未来的几大挑战与目前进展
DeepTech深科技
3+阅读 · 2018年10月29日
DTalk|自动化机器学习-人工智能的未来
机器之心
4+阅读 · 2018年9月15日
【干货】强化学习介绍
专知
8+阅读 · 2018年6月24日
【强化学习】强化学习/增强学习/再励学习介绍
产业智能官
9+阅读 · 2018年2月23日
【深度强化学习】深度强化学习揭秘
产业智能官
13+阅读 · 2017年11月13日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
7+阅读 · 2016年12月7日
相关论文
Advances and Open Problems in Federated Learning
Peter Kairouz,H. Brendan McMahan,Brendan Avent,Aurélien Bellet,Mehdi Bennis,Arjun Nitin Bhagoji,Keith Bonawitz,Zachary Charles,Graham Cormode,Rachel Cummings,Rafael G. L. D'Oliveira,Salim El Rouayheb,David Evans,Josh Gardner,Zachary Garrett,Adrià Gascón,Badih Ghazi,Phillip B. Gibbons,Marco Gruteser,Zaid Harchaoui,Chaoyang He,Lie He,Zhouyuan Huo,Ben Hutchinson,Justin Hsu,Martin Jaggi,Tara Javidi,Gauri Joshi,Mikhail Khodak,Jakub Konečný,Aleksandra Korolova,Farinaz Koushanfar,Sanmi Koyejo,Tancrède Lepoint,Yang Liu,Prateek Mittal,Mehryar Mohri,Richard Nock,Ayfer Özgür,Rasmus Pagh,Mariana Raykova,Hang Qi,Daniel Ramage,Ramesh Raskar,Dawn Song,Weikang Song,Sebastian U. Stich,Ziteng Sun,Ananda Theertha Suresh,Florian Tramèr,Praneeth Vepakomma,Jianyu Wang,Li Xiong,Zheng Xu,Qiang Yang,Felix X. Yu,Han Yu,Sen Zhao
15+阅读 · 2019年12月10日
Bernhard Schölkopf
9+阅读 · 2019年11月24日
Deep Learning for Energy Markets
Michael Polson,Vadim Sokolov
4+阅读 · 2019年4月10日
gym-gazebo2, a toolkit for reinforcement learning using ROS 2 and Gazebo
Nestor Gonzalez Lopez,Yue Leire Erro Nuin,Elias Barba Moral,Lander Usategui San Juan,Alejandro Solano Rueda,Víctor Mayoral Vilches,Risto Kojcev
5+阅读 · 2019年3月14日
Interpretable machine learning: definitions, methods, and applications
W. James Murdoch,Chandan Singh,Karl Kumbier,Reza Abbasi-Asl,Bin Yu
12+阅读 · 2019年1月14日
Antoine J. -P. Tixier
10+阅读 · 2018年8月30日
Relational Deep Reinforcement Learning
Vinicius Zambaldi,David Raposo,Adam Santoro,Victor Bapst,Yujia Li,Igor Babuschkin,Karl Tuyls,David Reichert,Timothy Lillicrap,Edward Lockhart,Murray Shanahan,Victoria Langston,Razvan Pascanu,Matthew Botvinick,Oriol Vinyals,Peter Battaglia
5+阅读 · 2018年6月28日
Deepak Pathak,Yide Shentu,Dian Chen,Pulkit Agrawal,Trevor Darrell,Sergey Levine,Jitendra Malik
4+阅读 · 2018年6月21日
Asia J. Biega,Krishna P. Gummadi,Gerhard Weikum
3+阅读 · 2018年5月4日
Hyrum S. Anderson,Anant Kharkar,Bobby Filar,David Evans,Phil Roth
3+阅读 · 2018年1月30日
Top