学界 | Ian Goodfellow发推讲2个机器学习黑魔法,教你如何推导公式

2018 年 5 月 15 日 大数据文摘 文摘菌

大数据文摘作品

作者:小鱼、土豆


《深度学习》(花书)作者Ian Goodfellow今早连发了10条推特,细数了他最喜欢的两个机器学习“黑魔法”。他在著名的GAN论文中使用这两个小窍门推导了公式。


最后,他还不忘操心大家的学习,推荐了一本关于凸优化的书。当然,更详尽的操作还是要去看Goodfellow本人的《深度学习》。文摘菌给大家搭配了斯坦福的一门MOOC,一起学习风味更佳~拉至文末查看喔~


Goodfellow称,这是关于机器学习,他最喜欢的两个快速理解理论推导的“黑魔法”。



感兴趣的同学在大数据文摘后台回复“goodfellow”可获取GAN论文和《凸优化》。



以下是Ian Goodfellow推特内容:


很多时候,我们用代数或微积分来分析神经网络的最优行为。想实现一些函数的权重衰减或许可以用代数方法实现,但想要用代数方法解决神经网络中大多数函数的参数优化问题就有些过于复杂。


为了得到一个不太复杂的模型,常见的方法就是使用线性模型,因为线性模型能很好的解决凸优化问题。但线性模型又过于简单,其模型效果远不及神经网络。


黑魔法1:将神经网络视为一个任意函数,因此可以在同一空间优化所有的函数f,而不是特定的神经网络结构的参数theta。与使用参数和特定结构模型相比,这种方法非常简洁。


将神经网络视为一个函数,保留了线性模型的诸多优点:多种凸函数问题。例如,分类器的交叉熵损失在函数空间中就是一个凸优化问题。


这个假设并不准确,特别是与线性模型相比。但是根据通用逼近定理,神经网络可以较好地近似任意函数。


黑魔法2:如果你在同一空间优化所有函数时遇到困难,可以将函数想象成一个高维向量的分量。此时,关于R^n中x的评估函数f(x),就变成了在一个向量中查找f_x,其中x是对分量的索引。


通过这种方式,对函数进行优化就变成了一个常规微积分问题。这种方法很直观,但不是100%准确。有关更多正式版本和关于何时可以使用的限制信息,请参阅:

http://www.deeplearningbook.org/contents/inference.html


这篇论文中我的共同作者和我使用黑魔法破解#1和#2来推导GAN论文的eq 2链接如下:

https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf


最后的Bonus:推荐了这本凸优化书在斯坦福的pdf版本。

https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf


大数据文摘后台回复“goodfellow”可获取GAN论文和《凸优化》哟。


文摘菌推荐:可以结合MOOC视频和作业一起服用哦,效果更佳。

https://lagunita.stanford.edu/courses/Engineering/CVX101/Winter2014/about


【今日机器学习概念】

Have a Great Definition

志愿者介绍

回复志愿者”加入我们

登录查看更多
4

相关内容

对于给定d个属性描述的示例x=(x1,x2,......,xd),通过属性的线性组合来进行预测。一般的写法如下: f(x)=w'x+b,因此,线性模型具有很好的解释性(understandability,comprehensibility),参数w代表每个属性在回归过程中的重要程度。
【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
150+阅读 · 2020年6月27日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
212+阅读 · 2020年6月5日
元学习与图神经网络逻辑推导,55页ppt
专知会员服务
127+阅读 · 2020年4月25日
机器学习速查手册,135页pdf
专知会员服务
336+阅读 · 2020年3月15日
《深度学习》圣经花书的数学推导、原理与Python代码实现
CMU博士论文:可微优化机器学习建模
专知会员服务
54+阅读 · 2019年10月26日
GANs最新综述论文: 生成式对抗网络及其变种如何有用
专知会员服务
70+阅读 · 2019年10月19日
GAN学习路线图:论文、应用、课程、书籍大总结
全球人工智能
16+阅读 · 2019年7月8日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
从零推导支持向量机 (SVM)
AI科技评论
9+阅读 · 2019年2月7日
博客 | 机器学习中的数学基础(凸优化)
AI研习社
14+阅读 · 2018年12月16日
GAN 生成对抗网络论文阅读路线图
GAN生成式对抗网络
27+阅读 · 2018年10月30日
大咖 | GAN之父Ian Goodfellow在Quora:机器学习十问十答
大数据文摘
3+阅读 · 2017年7月31日
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Optimization for deep learning: theory and algorithms
Arxiv
102+阅读 · 2019年12月19日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
7+阅读 · 2018年11月6日
The Matrix Calculus You Need For Deep Learning
Arxiv
11+阅读 · 2018年7月2日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关VIP内容
【2020新书】监督机器学习,156页pdf,剑桥大学出版社
专知会员服务
150+阅读 · 2020年6月27日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
212+阅读 · 2020年6月5日
元学习与图神经网络逻辑推导,55页ppt
专知会员服务
127+阅读 · 2020年4月25日
机器学习速查手册,135页pdf
专知会员服务
336+阅读 · 2020年3月15日
《深度学习》圣经花书的数学推导、原理与Python代码实现
CMU博士论文:可微优化机器学习建模
专知会员服务
54+阅读 · 2019年10月26日
GANs最新综述论文: 生成式对抗网络及其变种如何有用
专知会员服务
70+阅读 · 2019年10月19日
相关资讯
GAN学习路线图:论文、应用、课程、书籍大总结
全球人工智能
16+阅读 · 2019年7月8日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
从零推导支持向量机 (SVM)
AI科技评论
9+阅读 · 2019年2月7日
博客 | 机器学习中的数学基础(凸优化)
AI研习社
14+阅读 · 2018年12月16日
GAN 生成对抗网络论文阅读路线图
GAN生成式对抗网络
27+阅读 · 2018年10月30日
大咖 | GAN之父Ian Goodfellow在Quora:机器学习十问十答
大数据文摘
3+阅读 · 2017年7月31日
相关论文
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Optimization for deep learning: theory and algorithms
Arxiv
102+阅读 · 2019年12月19日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
7+阅读 · 2018年11月6日
The Matrix Calculus You Need For Deep Learning
Arxiv
11+阅读 · 2018年7月2日
Arxiv
12+阅读 · 2018年1月12日
Top
微信扫码咨询专知VIP会员