【最优化】教你用牛顿法寻找最优点

2018 年 2 月 10 日 机器学习研究会
1
前言

在最速梯度下降法中,可以知道迭代点的更新为:x^(k+1)=x^(k)+tkdf(x^(k)) ,可以看到只用到了目标函数的一阶导数信息(迭代方向df(x^(k))),而牛顿法则用到了二阶导数信息,下面讲解如何用到了二阶导数信息。

2
牛顿法思想

用目标函数的二阶泰勒展开近似该目标函数,通过求解这个二次函数的极小值来求解凸优化的搜索方向。

3
牛顿法推导


以上推导来自于:凸优化(七)——牛顿法


转自:机器学习算法与自然语言处理


完整内容请点击“阅读原文”

登录查看更多
1

相关内容

在数值分析中,牛顿方法,也被称为牛顿-拉夫森方法,是一种求根的算法,它对实值函数的根(或零)产生连续更好的逼近.
专知会员服务
42+阅读 · 2020年7月7日
【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
150+阅读 · 2020年6月27日
最新《自动微分手册》77页pdf
专知会员服务
97+阅读 · 2020年6月6日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
213+阅读 · 2020年6月5日
机器学习速查手册,135页pdf
专知会员服务
336+阅读 · 2020年3月15日
《深度学习》圣经花书的数学推导、原理与Python代码实现
面试题:Word2Vec中为什么使用负采样?
七月在线实验室
46+阅读 · 2019年5月16日
面试时让你手推公式不在害怕 | 梯度下降
计算机视觉life
14+阅读 · 2019年3月27日
从最优化的角度看待 Softmax 损失函数
极市平台
30+阅读 · 2019年2月21日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
机器学习者都应该知道的五种损失函数!
数盟
5+阅读 · 2018年6月21日
SVM大解密(附代码和公式)
机器学习算法与Python学习
6+阅读 · 2018年5月22日
从最大似然到EM算法:一致的理解方式
PaperWeekly
18+阅读 · 2018年3月19日
干货|代码原理教你搞懂SGD随机梯度下降、BGD、MBGD
机器学习研究会
12+阅读 · 2017年11月25日
【直观详解】支持向量机SVM
机器学习研究会
18+阅读 · 2017年11月8日
干货 | 深度学习之损失函数与激活函数的选择
机器学习算法与Python学习
15+阅读 · 2017年9月18日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
7+阅读 · 2018年6月19日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
相关VIP内容
专知会员服务
42+阅读 · 2020年7月7日
【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
150+阅读 · 2020年6月27日
最新《自动微分手册》77页pdf
专知会员服务
97+阅读 · 2020年6月6日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
213+阅读 · 2020年6月5日
机器学习速查手册,135页pdf
专知会员服务
336+阅读 · 2020年3月15日
《深度学习》圣经花书的数学推导、原理与Python代码实现
相关资讯
面试题:Word2Vec中为什么使用负采样?
七月在线实验室
46+阅读 · 2019年5月16日
面试时让你手推公式不在害怕 | 梯度下降
计算机视觉life
14+阅读 · 2019年3月27日
从最优化的角度看待 Softmax 损失函数
极市平台
30+阅读 · 2019年2月21日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
机器学习者都应该知道的五种损失函数!
数盟
5+阅读 · 2018年6月21日
SVM大解密(附代码和公式)
机器学习算法与Python学习
6+阅读 · 2018年5月22日
从最大似然到EM算法:一致的理解方式
PaperWeekly
18+阅读 · 2018年3月19日
干货|代码原理教你搞懂SGD随机梯度下降、BGD、MBGD
机器学习研究会
12+阅读 · 2017年11月25日
【直观详解】支持向量机SVM
机器学习研究会
18+阅读 · 2017年11月8日
干货 | 深度学习之损失函数与激活函数的选择
机器学习算法与Python学习
15+阅读 · 2017年9月18日
Top
微信扫码咨询专知VIP会员