课程题目

在线变分推断:A Regret Bound for Online Variational Inference

课程介绍

本课程重点讲述了在线变分推理在机器学习的强大之处,提出了一种近似后验的快速算法,将应用它在CIFAR-10、ImageNet上训练深层神经网络,改进不确定度量化。

课程作者

Badr-EddineChérief-Abdellatif,

Pierre Alquier,RIKEN高级情报中心项目贝叶斯近似推理小组研究员。

Emtiyaz Khan,东京RIKEN 高级智能项目(AIP)中心的团队负责人,东京农业科技大学(TUAT)电子工程系的客座教授。

成为VIP会员查看完整内容
0
9

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

题目: Probabilistic Regression for Visual Tracking

简介:

从根本上说,视觉跟踪是在每个视频帧中使目标状态回归的问题。尽管取得了重大进展,但跟踪器仍然容易出现故障和不准确的情况。因此,至关重要的是在目标估算中表示不确定性。尽管当前的主要范式依赖于估计与状态有关的置信度得分,但是该值缺乏明确的概率解释,使它的使用变得复杂。因此,在这项工作中,我们提出了概率回归公式,并将其应用于跟踪。我们的网络预测给定输入图像后焦油状态的条件概率密度。至关重要的是,我们的配方能够对由于任务中不正确的注释和歧义而产生的标签噪声进行建模。通过最小化Kullback Leibler差异来训练回归网络。当应用于跟踪时,我们的公式不仅允许输出的概率表示,而且还可以显着提高性能。我们的跟踪器在六个数据集上设置了最新的技术,在LaSOT上实现了59.8%的AUC,在Tracking Net上实现了75.8%的成功。可以在https://github.com/visionml/pytracking获得代码和模型。

成为VIP会员查看完整内容
0
14

题目: Bayesian Neural Networks With Maximum Mean Discrepancy Regularization

摘要: 贝叶斯神经网络(BNNs)训练来优化整个分布的权重,而不是一个单一的集合,在可解释性、多任务学习和校准等方面具有显著的优势。由于所得到的优化问题的难解性,大多数BNNs要么通过蒙特卡罗方法采样,要么通过在变分近似上最小化一个合适的样本下界(ELBO)来训练。在这篇论文中,我们提出了后者的一个变体,其中我们用最大平均偏差(MMD)估计器代替了ELBO项中的Kullback-Leibler散度,这是受到了最近的变分推理工作的启发。在根据MMD术语的性质提出我们的建议之后,我们接着展示了公式相对于最先进的公式的一些经验优势。特别地,我们的BNNs在多个基准上实现了更高的准确性,包括多个图像分类任务。此外,它们对权重上的先验选择更有鲁棒性,而且它们的校准效果更好。作为第二项贡献,我们提供了一个新的公式来估计给定预测的不确定性,表明与更经典的标准(如微分熵)相比,它在对抗攻击和输入噪声的情况下表现得更稳定。

成为VIP会员查看完整内容
0
23

题目

生成式对抗网络先验贝叶斯推断,Bayesian Inference with Generative Adversarial Network Priors

关键字

生成对抗网络,贝叶斯推断,深度学习,人工智能,计算物理学,图像处理

简介

当两者通过物理模型链接时,贝叶斯推断被广泛用于根据相关场的测量来推断并量化感兴趣场的不确定性。尽管有许多应用,贝叶斯推理在推断具有大维离散表示和/或具有难以用数学表示的先验分布的字段时仍面临挑战。在本手稿中,我们考虑使用对抗性生成网络(GAN)来应对这些挑战。 GAN是一种深层神经网络,具有学习给定字段的多个样本所隐含的分布的能力。一旦对这些样本进行了训练,GAN的生成器组件会将低维潜矢量的iid组件映射到目标场分布的近似值。在这项工作中,我们演示了如何将这种近似分布用作贝叶斯更新中的先验,以及它如何解决与表征复杂的先验分布和推断字段的大范围相关的挑战。我们通过将其应用于热噪声问题中的热传导问题中的推断和量化初始温度场中的不确定性的问题,论证了该方法的有效性,该问题由稍后的温度噪声测量得出。

作者

Dhruv Patel, Assad A Oberai

成为VIP会员查看完整内容
0
16

本文为大家带来了一份斯坦福大学的最新课程CS234——强化学习,主讲人是斯坦福大学Emma Brunskill,她是斯坦福大学计算机科学助理教授,任职斯坦福大学人类影响力实验室、斯坦福人工智能实验室以及统计机器学习小组,主要研究强化学习。要实现人工智能的梦想和影响,需要能够学会做出正确决策的自主系统。强化学习是这样做的一个强有力的范例,它与大量的任务相关,包括机器人、游戏、消费者建模和医疗保健。本课程通过讲课、书面作业和编码作业的结合,学生将精通强化学习的关键思想和技术。

1.课程介绍(Description)

要实现人工智能的梦想和影响,需要能够学会做出正确决策的自主系统。强化学习是这样做的一个强有力的范例,它与大量的任务相关,包括机器人、游戏、消费者建模和医疗保健。本课程将为强化学习领域提供扎实的介绍,学生将学习包括通用化和探索在内的核心挑战和方法。通过讲课、书面作业和编码作业的结合,学生将精通强化学习的关键思想和技术。作业将包括强化学习和深度强化学习的基础,这是一个极有前途的新领域,将深度学习技术与强化学习相结合。此外,学生将通过期末专题来增进对强化学习领域的理解。

课程地址:

https://web.stanford.edu/class/cs234/schedule.html

2.预备知识(Prerequisites)

1)熟练Python

所有的课程都将使用Python(使用numpy和Tensorflow,也可以使用Keras)。这里有一个针对那些不太熟悉Python的人的教程。如果你有很多使用不同语言(如C/ c++ / Matlab/ Javascript)的编程经验,可能会很好。

2)大学微积分,线性代数(如 MATH 51, CME 100)

你应该能够熟练地进行(多变量)求导,理解矩阵/向量符号和运算。

3)基本概率及统计(例如CS 109 或同等课程)

你应该了解基本的概率,高斯分布,均值,标准差等。

4)机器学习基础

我们将阐述成本函数,求导数,用梯度下降法进行优化。CS 221或CS 229均可涵盖此背景。使用一些凸优化知识,一些优化技巧将更加直观。

3.主讲:Emma Brunskill

Emma Brunskill是斯坦福大学计算机科学助理教授,任职斯坦福大学人类影响力实验室、斯坦福人工智能实验室以及统计机器学习小组。

主要研究强化学习系统,以帮助人们更好地生活。并处理一些关键技术。最近的研究重点包括:1)有效强化学习的基础。一个关键的挑战是要了解代理商如何平衡勘探与开发之间的局限性。2)如果要进行顺序决策,该怎么办。利用巨大数量的数据来改善在医疗保健,教育,维护和许多其他应用程序中做出的决策,这是一个巨大的机会。这样做需要假设/反事实推理,以便在做出不同决定时对潜在结果进行推理。3)人在回路系统。人工智能具有极大地扩大人类智能和效率的潜力。我们正在开发一个系统,用其他众包商(CHI 2016)生产的(机器)固化材料对众包商进行训练,并确定何时扩展系统规格以包括新内容(AAAI 2017)或传感器。我们也有兴趣研究确保机器学习系统在人类用户的意图方面表现良好(Arxiv 2017),也被称为安全和公平的机器学习。

个人主页:https://cs.stanford.edu/people/ebrun/

4.课程安排

01: 强化学习导论(Introduction to Reinforcement Learning)

02: 表格MDP规划(Tabular MDP planning)

03: 表格RL政策评估(Tabular RL policy evaluation)

04: Q-learning

05: 带函数逼近的强化学习(RL with function approximation)

06: 带函数逼近的强化学习(RL with function approximation)

07: 带函数逼近的强化学习(RL with function approximation)

08: 从马尔可夫决策过程到强化学习(Policy search)

09: 从马尔可夫决策过程到强化学习(Policy search)

10: 课堂中期(In-class Midterm)

11: 模仿学习/探索(Imitation learning/Exploration)

12: 探索/开发(Exploration/Exploitation)

13: 探索/开发(Exploration/Exploitation)

14: 批处理强化学习(Batch Reinforcement Learning)

15: 嘉宾讲座:Craig Boutilier(Guest Lecture: Craig Boutilier)

16: 课堂测验(In-class Quiz)

17: 蒙特卡洛树搜索算法(Monte Carlo Tree Search)

18: 墙报展示(Poster presentations)

成为VIP会员查看完整内容
0
29

题目: Dual Averaging Method for Regularized Stochastic Learning and Online Optimization

简介: 我们考虑正则化随机学习和在线优化问题,其中目标函数是两个凸项的和:一个是学习任务的损失函数,另一个是简单的正则化项,例如ℓ1-范数,以促进稀疏性。 我们开发了一种新的在线算法,即正规化双重平均(RDA)方法,该算法可以在在线环境中显式利用正规化结构。 特别是,在每次迭代中,通过解决一个简单的优化问题来调整学习变量,该问题涉及损失函数的所有子梯度的运行平均值以及整个正则化项,而不仅仅是其子梯度。这篇文章研究了正则化的随机学习和在线优化问题,提出了一种新的算法——正规化双重平均法。与标准随机梯度法类似,该方法可达到最佳收敛速度,并且每次迭代通常具有较低的复杂度。

成为VIP会员查看完整内容
0
9

题目: Causal Inference and Stable Learning

简介:

在一个常见的机器学习问题中,使用一个根据训练数据集估计的模型,根据观察到的特征来预测未来的结果值。当测试数据和训练数据来自相同的分布时,许多学习算法被提出并证明是成功的。然而,对于给定的训练数据分布,性能最好的模型通常利用特征之间微妙的统计关系,这使得它们在应用于测试数据时更容易出现预测错误,因为测试数据的分布与训练数据的分布不同。对于学术研究和实际应用来说,如何建立稳定、可靠的学习模型是至关重要的。因果推理是一种强大的统计建模工具,用于解释和稳定的学习。因果推理是指基于某一效应发生的条件,对某一因果关系做出结论的过程。在本教程中,我们将重点讨论因果推理和稳定学习,旨在从观察数据中探索因果知识,以提高机器学习算法的可解释性和稳定性。首先,我们将介绍因果推理,并介绍一些最近的数据驱动的方法来估计因果效应的观测数据,特别是在高维设置。摘要为了弥补因果推理与机器学习在稳定学习上的差距,我们首先给出了学习算法的稳定性和鲁棒性的定义,然后介绍了一些最近出现的稳定学习算法,以提高预测的稳定性和可解释性。最后,我们将讨论稳定学习的应用和未来方向,并为稳定学习提供基准。

邀请嘉宾:

张潼,香港科技大学计算机科学与数学教授。此前,他是罗格斯大学(Rutgers university)教授,曾在IBM、雅虎(Yahoo)、百度和腾讯(Tencent)工作。张潼的研究兴趣包括机器学习算法和理论、大数据统计方法及其应用。他是ASA和IMS的研究员,曾在主要机器学习期刊的编委会和顶级机器学习会议的项目委员会任职。张潼在康奈尔大学获得数学和计算机科学学士学位,在斯坦福大学获得计算机科学博士学位。

崔鹏,清华大学计算机系长聘副教授,博士生导师。2010年于清华大学计算机系获得博士学位。研究兴趣包括社会动力学建模、大规模网络表征学习以及大数据驱动的因果推理和稳定预测。近5年在数据挖掘及人工智能领域高水平会议和期刊发表论文60余篇,曾5次获得顶级国际会议或期刊论文奖,并先后两次入选数据挖掘领域顶级国际会议KDD最佳论文专刊。目前担任IEEE TKDE、ACM TOMM、ACM TIST、IEEE TBD等国际期刊编委。曾获得国家自然科学二等奖、教育部自然科学一等奖、电子学会自然科学一等奖、CCF-IEEE CS青年科学家奖、ACM中国新星奖。入选中组部万人计划青年拔尖人才,并当选中国科协全国委员会委员。

成为VIP会员查看完整内容
0
58

讲座题目

深强化学习及其在交通运输中的应用:Deep Reinforcement Learning with Applications in Transportation

讲座简介

交通领域,特别是移动共享领域,有许多传统上具有挑战性的动态决策问题,这些问题有很长的研究文献,很容易从人工智能(AI)中受益匪浅。一些核心例子包括在线乘车命令调度,它将可用的驾驶员与在共享平台上请求乘客的行程实时匹配;路线规划,它规划行程的起点和终点之间的最佳路线;交通信号控制,它动态和自适应地调整实现低延迟的区域。所有这些问题都有一个共同的特点,即当我们关注某一特定时间范围内的一些累积目标时,需要做出一系列的决定。强化学习(RL)是一种机器学习范式,它通过与环境的交互和获取反馈信号,训练agent学会在环境中采取最佳行动(以获得的总累积回报衡量)。因此,它是一类求解序列决策问题的优化方法。

讲座嘉宾

Jen-Tzung Chien在台湾新竹国立清华大学取得电机工程博士学位。现任职于台湾新竹国立交通大学电子及电脑工程学系及电脑科学系讲座教授。2010年,他担任IBM沃森研究中心的客座教授。他的研究兴趣包括机器学习、深度学习、自然语言处理和计算机视觉。在2011年获得了IEEE自动语音识别和理解研讨会的最佳论文奖,并在2018年获得了AAPM Farrington Daniels奖。2015年,剑桥大学出版社出版《贝叶斯语音与语言处理》;2018年,学术出版社出版《源分离与机器学习》。他目前是IEEE信号处理技术委员会机器学习的当选成员。

成为VIP会员查看完整内容
0
20

课件题目

Lectures on Variational Inference:Statistical Analysis of Variational Approximations

课件简介

本讲座主要讲述了变分推理中的,变分逼近的统计分析。变分指的是泛函的变分。打个比方,从A点到B点有无数条路径,每一条路径都是一个函数吧,这无数条路径,每一条函数(路径)的长度都是一个数,那你从这无数个路径当中选一个路径最短或者最长的,这就是求泛函的极值问题。有一种老的叫法,函数空间的自变量我们称为宗量(自变函数),当宗量变化了一点点而导致了泛函值变化了多少,这其实就是变分。变分,就是微分在函数空间的拓展,其精神内涵是一致的。求解泛函变分的方法主要有古典变分法、动态规划和最优控制。作者主张将变分逼近应用于统计分析,研究机器学习优化问题,并详细地介绍了实现方法。后部浓度 该讲座将从以下几个方面进行介绍:后方集中定理,变分逼近的2个集中,变分逼近定理,统计估计的进一步结果,机器学习的进一步结果。

课件作者

Pierre Alquier,来自布里斯托尔大学,海尔布朗尼学院。

成为VIP会员查看完整内容
0
6

课件题目

Lectures on Variational Inference:Approximate Bayesian Inference in Machine Learning

课件简介 本讲座主要讲述了变分推理中的,机器学习近似贝叶斯推理。变分指的是泛函的变分。打个比方,从A点到B点有无数条路径,每一条路径都是一个函数吧,这无数条路径,每一条函数(路径)的长度都是一个数,那你从这无数个路径当中选一个路径最短或者最长的,这就是求泛函的极值问题。有一种老的叫法,函数空间的自变量我们称为宗量(自变函数),当宗量变化了一点点而导致了泛函值变化了多少,这其实就是变分。变分,就是微分在函数空间的拓展,其精神内涵是一致的。求解泛函变分的方法主要有古典变分法、动态规划和最优控制。作者主张将变分推理应用于贝叶斯推理中,并详细地介绍了实现方法。

课件作者

Pierre Alquier,来自布里斯托尔大学,海尔布朗尼学院。

成为VIP会员查看完整内容
0
15
小贴士
相关VIP内容
【硬核课】统计学习理论,321页ppt
专知会员服务
70+阅读 · 6月30日
专知会员服务
29+阅读 · 1月15日
相关论文
Liuyi Yao,Zhixuan Chu,Sheng Li,Yaliang Li,Jing Gao,Aidong Zhang
34+阅读 · 2月5日
Brendan O'Donoghue
3+阅读 · 2018年7月25日
Akash Srivastava,Charles Sutton
6+阅读 · 2018年4月21日
Zhanxiang Feng,Jianhuang Lai,Xiaohua Xie
7+阅读 · 2018年3月30日
Ilya Tolstikhin,Olivier Bousquet,Sylvain Gelly,Bernhard Schoelkopf
6+阅读 · 2018年3月12日
Kuan Fang,Yu Xiang,Xiaocheng Li,Silvio Savarese
8+阅读 · 2018年3月4日
David-Alexandre Beaupré,Guillaume-Alexandre Bilodeau,Nicolas Saunier
10+阅读 · 2018年1月29日
Chris Cremer,Xuechen Li,David Duvenaud
3+阅读 · 2018年1月10日
Burak Uzkent,Aneesh Rangnekar,Matthew J. Hoffman
6+阅读 · 2017年12月27日
Top