摘要:

本文将优化描述为一个过程。在许多实际应用中,环境是如此复杂,以致于无法制定一个全面的理论模型,并使用经典算法理论和数学优化。采取一种稳健的方法是必要的,也是有益的,方法是应用一种不断学习的优化方法,在观察到问题的更多方面时从经验中学习。这种将优化视为一个过程的观点在各个领域都很突出,并在建模和系统方面取得了一些惊人的成功,现在它们已经成为我们日常生活的一部分。

作者介绍:

Elad Hazan是普林斯顿大学计算机科学教授。他于2015年从Technion毕业,当时他是该校运筹学副教授。他的研究重点是机器学习和优化的基本问题的算法设计和分析。他的贡献包括合作开发用于训练学习机器的AdaGrad算法,以及第一个用于凸优化的次线性时间算法。他曾(两次)获得2012年IBM Goldberg最佳论文奖,以表彰他对机器学习的次线性时间算法的贡献。2008年,他还获得了欧洲研究理事会(European Research Council)的一笔拨款、玛丽•居里(Marie Curie)奖学金和谷歌研究奖(两次)。他是计算学习协会的指导委员会成员,并担任COLT 2015的项目主席。

https://www.cs.princeton.edu/~ehazan/

成为VIP会员查看完整内容
0
140

相关内容

凸优化,是数学最优化的一个子领域,研究定义于凸集中的凸函数最小化的问题。

凸优化应用于很多学科领域,诸如自动控制系统,信号处理,通讯和网络,电子电路设计,数据分析和建模,统计学(最优化设计),以及金融。在近来运算能力提高和最优化理论发展的背景下,一般的凸优化已经接近简单的线性规划一样直捷易行。许多最优化问题都可以转化成凸优化。

【导读】深度学习中的优化问题是非常关键的。今年国立台湾大学教授、IEEE Fellow、ACM Fellow、AAAI Fellow,也是大名鼎鼎LIBSVM作者林智仁教授开设了《深度学习优化方法》课程,讲解深度学习涉及到非常难的非凸优化问题,研究了深度学习优化方法的实现,值得跟踪学习。

https://www.csie.ntu.edu.tw/~cjlin/courses/optdl2020/

Chih-Jen Lin,现任台湾大学计算机科学系特聘教授。1993年获国立台湾大学学士学位,1998年获密歇根大学博士学位。他的主要研究领域包括机器学习、数据挖掘和数值优化。他最著名的工作是支持向量机(SVM)数据分类。他的软件LIBSVM是最广泛使用和引用的支持向量机软件包之一。由于他的研究工作,他获得了许多奖项,包括ACM KDD 2010和ACM RecSys 2013最佳论文奖。因为他对机器学习算法和软件设计的贡献,他是IEEE fellow,AAAI fellow,ACM fellow。更多关于他的信息可以在http://www.csie.ntu.edu.tw/~cjlin

目录内容:

  • 正则化线性分类
  • 全连接网络优化问题
  • 卷积神经网络优化问题
成为VIP会员查看完整内容
Optimization Problems for Neural Networks.pdf
0
117

强化学习是现在人工智能领域里面最活跃的研究领域之一,它是一种用于学习的计算方法,其中会有一个代理在与复杂的不确定环境交互时试图最大化其所收到的奖励。现在,如果你是一个强化学习的初学者,由 Richard Sutton 和 Andrew Barto 合著的《Reinforcement Learning : An Introduction》可能就是你的最佳选择。这本书提供了关于强化学习的简单明了的关键思想和算法的解释。他们讨论了该领域的知识基础的历史延伸到了最新的发展的应用。

本书全文共分三部分,17章内容

  • 第一部分:列表(Tabular)解决法,第一章描述了强化学习问题具体案例的解决方案,第二章描述了贯穿全书的一般问题制定——有限马尔科夫决策过程,其主要思想包括贝尔曼方程(Bellman equation)和价值函数,第三、四、五章介绍了解决有限马尔科夫决策问题的三类基本方法:动态编程,蒙特卡洛方法、时序差分学习。三者各有其优缺点,第六、七章介绍了上述三类方法如何结合在一起进而达到最佳效果。第六章中介绍了可使用适合度轨迹(eligibility traces)把蒙特卡洛方法和时序差分学习的优势整合起来。第七章中表明时序差分学习可与模型学习和规划方法(比如动态编程)结合起来,获得一个解决列表强化学习问题的完整而统一的方案。

  • 第二部分:近似求解法,从某种程度上讲只需要将强化学习方法和已有的泛化方法结合起来。泛化方法通常称为函数逼近,从理论上看,在这些领域中研究过的任何方法都可以用作强化学习算法中的函数逼近器,虽然实际上有些方法比起其它更加适用于强化学习。在强化学习中使用函数逼近涉及一些在传统的监督学习中不常出现的新问题,比如非稳定性(nonstationarity)、引导(bootstrapping)和目标延迟(delayed targets)。这部分的五章中先后介绍这些以及其它问题。首先集中讨论在线(on-policy)训练,而在第九章中的预测案例其策略是给定的,只有其价值函数是近似的,在第十章中的控制案例中最优策略的一个近似已经找到。第十一章讨论函数逼近的离线(off-policy)学习的困难。第十二章将介绍和分析适合度轨迹(eligibility traces)的算法机制,它能在多个案例中显著优化多步强化学习方法的计算特性。这一部分的最后一章将探索一种不同的控制、策略梯度的方法,它能直接逼近最优策略且完全不需要设定近似值函数(虽然如果使用了一个逼近价值函数,效率会高得多)。

  • 第三部分:深层次研究,这部分把眼光放到第一、二部分中介绍标准的强化学习思想之外,简单地概述它们和心理学以及神经科学的关系,讨论一个强化学习应用的采样过程,和一些未来的强化学习研究的活跃前沿。

成为VIP会员查看完整内容
0
111

统计学习是一套以复杂数据建模和数据理解为目的的工具集,是近期才发展起来的统计学的一个新领域。本书出自统计学习领域声名显赫的几位专家,结合R语言介绍了分析大数据必不可少的工具,提供一些重要的建模和预测技术,并借助丰富的实验来解释如何用R语言实现统计学习方法。论题包括线性回归、分类、重抽样方法、压缩方法、基于树的方法、支持向量机、聚类等,作者借助彩图和实际案例直观解释这些方法。为了读者更好地理解书中内容,每章后还配有丰富的概念性和应用性练习题。

  书中内容与《The Elements of Statistical Learning》的大部分内容相同,但是本书起点低,弱化了数学推导的细节,更注重方法的应用,所以更适合作为入门教材。当然,这本《统计学习导论》不仅是优秀的“统计学习”或“机器学习”课程的教材,也是数据挖掘、数据分析等相关从业者不可或缺的参考书。

Gareth James 斯坦福大学统计学博士毕业,师从Trevor Hastie。现为南加州大学马歇尔商学院统计学教授,美国统计学会会士,数理统计协会终身会员,新西兰统计协会会员。《Statistica Sinica》、《Applications and Case Studies》、《Theory and Methods》等期刊的副主编。

  Daniela Witten 斯坦福大学统计学博士毕业,师从Robert Tibshirani。现为华盛顿大学生物统计学副教授,美国统计学会和国际数理统计协会会士,《Journal of Computational and Graphical Statistics》和《Biometrika》等期刊副主编。

  Trevor Hastie 美国统计学家和计算机科学家,斯坦福大学统计学教授,英国皇家统计学会、国际数理统计协会和美国统计学会会士。Hastie参与开发了 R 中的大部分统计建模软件和环境,发明了主曲线和主曲面。

  Robert Tibshirani 斯坦福大学统计学教授,国际数理统计协会、美国统计学会和加拿大皇家学会会士,1996年COPSS总统奖得主,提出lasso方法。Hastie和Tibshirani都是统计学习领域的泰山北斗,两人合著《The Elements of Statistical Learning》,还合作讲授斯坦福大学的公开课《统计学习》。  

成为VIP会员查看完整内容
0
142

康奈尔大学Jon Kleinberg 与Éva Tardos 两位著名教授编著的算法设计《Algorithm Design》是关于算法经典的教科书。在普林斯顿大学wayne个人主页下配备了关于算法设计的相关课件,以及电子书864页pdf,值得查看学习。

算法设计通过观察激发算法的现实问题来引入算法。这本书教学生在计算应用中出现的问题的一系列设计和分析技术。本文鼓励对算法设计过程的理解和算法在更广泛的计算机科学领域的作用的欣赏。

目录:

Algorithm Design

  1. Representative Problems

  2. Algorithm Analysis

  3. Graphs

  4. Greedy Algorithms

  5. Divide and Conquer

  6. Dynamic Programming

  7. Network Flow

  8. Intractability

  9. PSPACE

  10. Limits of Tractability

  11. Approximation Algorithms

  12. Local Search

  13. Randomized Algorithms

Extra Topics

Data Structures

Linear Programming

算法设计课件

算法设计 电子书

成为VIP会员查看完整内容
0
148

简介: 作者通过在线凸优化的现代观点介绍在线学习的基本概念。这里,在线学习是指在最坏情况下的假设中将regret最小化的框架。作者介绍了在欧几里得和非欧几里得设置下具有凸损失的在线学习的一阶和二阶算法。清楚地表示了所有算法,以表示Online Mirror Descent或遵循正规领导及其变体。通过自适应和无参数的在线学习算法,特别关注调整算法参数和在无界域中学习的问题。非凸损失通过凸智能损失和随机化处理。还简要讨论了非凸的情况,这些说明不需要先有凸分析的知识,并且对所有所需的数学工具进行了严格的解释。而且,所有的防护措施都经过仔细选择,以使其尽可能的简单。

作者介绍: Francesco Orabona,目前是波士顿大学电气与计算机工程系的助理教授, 之前,曾在石溪大学,纽约雅虎研究中心,芝加哥的丰田技术学院,米兰大学,IDIAP研究所和热那亚大学任教。研究兴趣是无参数机器学习,尤其对在线学习,批处理/随机优化和统计学习理论感兴趣。个人主页:http://francesco.orabona.com/

目录:

成为VIP会员查看完整内容
0
33

主题: Algorithmic Machine Learning and Data Science

介绍: 本课程数学严谨,需要以前的机器学习课程(例如CS-UY 4563、CS-GY 6923或ECE-GY 6143)和以前的算法设计和分析课程(例如CS-UY 2413、CS-GY 6033或CS-GY 6043)为基础。

讲师介绍: Christopher Musco,纽约大学坦顿工程学院计算机科学与工程的助理教授。他的研究是关于机器学习和数据科学的算法基础。他在麻省理工学院完成了计算机科学博士学位。在麻省理工学院之前,他是Redfin的工程师。

成为VIP会员查看完整内容
0
14

普林斯顿大学在19年春季学期,开设了COS 598D《机器学习优化》课程,课程主要介绍机器学习中出现的优化问题,以及解决这些问题的有效算法。前不久,课程教授Elad Hazan将其精心准备的课程讲义开放了出来,讲义内容详实循序渐进,非常适合想要入门机器学习的同学阅读。

COS 598D:Optimization for Machine Learning(机器学习优化)是普林斯顿大学在19年春季学期开设的课程。课程主要介绍机器学习中出现的优化问题,以及解决这些问题的有效算法。

课程内容涵盖:

  • Introduction to convex analysis
  • first-order methods, convergence analysis
  • generalization and regret minimization
  • regularization
  • gradient descent++:
    • acceleration
    • variance reduction
    • adaptive preconditioning
  • 2nd order methods in linear time
  • projection-free methods and the Frank-Wolfe algorithm
  • zero-order optimization, convex bandit optimization
  • optimization for deep learning: large scale non-convex optimization
成为VIP会员查看完整内容
0
56
小贴士
相关论文
How Useful is Self-Supervised Pretraining for Visual Tasks?
Alejandro Newell,Jia Deng
8+阅读 · 2020年3月31日
Emmanuel Bengio,Joelle Pineau,Doina Precup
8+阅读 · 2020年3月13日
Image Segmentation Using Deep Learning: A Survey
Shervin Minaee,Yuri Boykov,Fatih Porikli,Antonio Plaza,Nasser Kehtarnavaz,Demetri Terzopoulos
32+阅读 · 2020年1月15日
Optimization for deep learning: theory and algorithms
Ruoyu Sun
81+阅读 · 2019年12月19日
Claudio Gambella,Bissan Ghaddar,Joe Naoum-Sawaya
9+阅读 · 2019年1月16日
IRLAS: Inverse Reinforcement Learning for Architecture Search
Minghao Guo,Zhao Zhong,Wei Wu,Dahua Lin,Junjie Yan
4+阅读 · 2018年12月14日
InverseRenderNet: Learning single image inverse rendering
Ye Yu,William A. P. Smith
3+阅读 · 2018年11月29日
Simultaneous Localization and Mapping (SLAM) using RTAB-MAP
Sagarnil Das
5+阅读 · 2018年9月9日
Konstantinos Chatzilygeroudis,Vassilis Vassiliades,Freek Stulp,Sylvain Calinon,Jean-Baptiste Mouret
3+阅读 · 2018年7月6日
Sham Kakade,Mengdi Wang,Lin F. Yang
3+阅读 · 2018年4月25日
Top