化繁为简,一张图看懂梯度、散度、旋度、Jacobian、Hessian和Laplacian

2020 年 6 月 29 日 极市平台

加入极市专业CV交流群,与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度 等名校名企视觉开发者互动交流!

同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。关注 极市平台 公众号 ,回复 加群,立刻申请入群~

来源|王赟 Maigo@知乎,https://zhuanlan.zhihu.com/p/35323714
本文仅作学术分享,如有侵权,请联系后台作删文处理。

一、入门

图中的细实线箭头表示了四种一阶微分运算,包括梯度、散度、旋度和 Jacobian。每条箭头的起点表示了相应运算的自变量的类型,终点表示了相应运算的因变量的类型,例如梯度运算是作用在标量上的,结果是向量。图中的「向量」默认为列向量。

这四种一阶微分运算可以统一用算符  (读作 nabla)表示。Nabla 算符是一个形式向量  ,它可以如下地作用于标量  或向量  上:

  • 直接与标量  相乘,得到  的梯度 
  • 与向量  点乘,得到  的散度  。本文把点乘用矩阵乘法的形式写作 
  • 与向量  叉乘,得到  的旋度 
  • 若允许偏导算符写在变量的右边,则  就可以表示  的 Jacobian。

图中的粗实线箭头表示了两种二阶微分运算,它们可以由两个一阶微分运算组合而成,即:

  • 梯度的散度就是 Laplacian;
  • 梯度的 Jacobian 就是 Hessian。

图中的虚线箭头表示了一种不涉及微分的运算(迹)。在微分运算之后接上「迹」运算,可能得到另一种微分运算,如:

  • Jacobian 的迹就是散度;
  • Hessian 的迹就是 Laplacian。

二、入迷

图中的四种一阶微分运算两两搭配,一共可以得到 7 种二阶微分运算。第一节的图中画出了两种,本节的图中画出了另外五种(浅蓝色与灰色)。这五种二阶微分运算并没有特别的名字,但其中有两种是恒等于 0 的:

  • 梯度的旋度恒为零向量;
  • 旋度的散度恒为 0。

其中,「梯度无旋」可以用下面的图形象说明(图片来自@得分的):

如果梯度有旋会怎么样?

三、入魔

Laplacian 是一个作用于标量的二阶微分运算,其结果也是标量。但我们也可以把它作用于一个向量的每一个元素,得到一个向量;这种运算称为向量 Laplacian。

Laplacian 运算作用于标量  上的结果可以用 nabla 算符写成  。这种写法无法直接推广到向量 Laplacian,因为  里  无法直接跟  做矩阵乘法。但如果允许偏导算符写在变量右边,那就可以把向量 Laplacian 表示成  。这是 Jacobian 运算与「矩阵右乘  」运算的复合;后者的效果是对矩阵的每一行求散度。图中恰好有一个为「逐行散度」运算准备的空位,我们把它补充到图中。

向量 Laplacian 的结果,恰好等于「散度的梯度」与「旋度的旋度」之差。为了体现出这种关系,我把「从向量到向量」的三种二阶微分运算改用橙红色箭头表示。

四、入土

既然引入了「逐行散度」这个一阶微分运算,那就索性把它能组合出来的二阶微分运算也全都放到图里去吧!这样就得到了一个完美对称的图,它包含了 11 种二阶微分运算,其中:

  • 有两种比较常见:Laplacian 和 Hessian;
  • 有两种恒等于零:「梯度的旋度」和「旋度的散度」;
  • 有三种满足减法关系:向量 Laplacian = 散度的梯度 - 旋度的旋度;
  • 剩下的四种没有专门的名字,也很罕见。

其中任何一种微分运算后面接上「迹」,都可以得到另一种同阶微分运算:

  • Jacobian 的迹就是散度;
  • Hessian 的迹就是 Laplacian;
  • 旋度的 Jacobian 的迹就是旋度的散度,恒等于 0;
  • 矩阵逐行散度的 Jacobian 的迹,就是它的逐行散度的散度。

但需要注意只能在运算之后接上「迹」,在运算之前接「迹」是不行的,比如矩阵的迹的梯度不等于它的逐行散度。

如果有读者知道图中几种没有名字的运算叫什么名字、有什么用途,或者在图中内容之外还有什么值得包括进来的微分运算,欢迎补充。


推荐阅读



添加极市小助手微信(ID : cv-mart),备注:研究方向-姓名-学校/公司-城市(如:目标检测-小极-北大-深圳),即可申请加入极市技术交流群,更有每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、行业技术交流一起来让思想之光照的更远吧~


△长按添加极市小助手


△长按关注极市平台,获取最新CV干货


觉得有用麻烦给个在看啦~  

登录查看更多
0

相关内容

《常微分方程》笔记,419页pdf
专知会员服务
70+阅读 · 2020年8月2日
专知会员服务
42+阅读 · 2020年7月7日
【硬核书】群论,Group Theory,135页pdf
专知会员服务
120+阅读 · 2020年6月25日
 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
54+阅读 · 2020年3月4日
特征方程的物理意义
算法与数学之美
6+阅读 · 2019年5月13日
面试时让你手推公式不在害怕 | 梯度下降
计算机视觉life
14+阅读 · 2019年3月27日
深入机器学习系列之:高斯混合模型
数据猿
6+阅读 · 2019年1月10日
从张量到自动微分:PyTorch入门教程
论智
9+阅读 · 2018年10月10日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
从零开始学习「张氏相机标定法」(四)优化算法前传
计算机视觉life
4+阅读 · 2018年3月14日
机器之心最干的文章:机器学习中的矩阵、向量求导
深度学习世界
12+阅读 · 2018年2月7日
傅里叶变换和拉普拉斯变换的物理解释及区别
算法与数学之美
11+阅读 · 2018年2月5日
CNN 反向传播算法推导
统计学习与视觉计算组
28+阅读 · 2017年12月29日
从逻辑回归到最大熵模型
夕小瑶的卖萌屋
4+阅读 · 2017年7月11日
Arxiv
15+阅读 · 2020年2月5日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
LARNN: Linear Attention Recurrent Neural Network
Arxiv
5+阅读 · 2018年8月16日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
VIP会员
相关资讯
特征方程的物理意义
算法与数学之美
6+阅读 · 2019年5月13日
面试时让你手推公式不在害怕 | 梯度下降
计算机视觉life
14+阅读 · 2019年3月27日
深入机器学习系列之:高斯混合模型
数据猿
6+阅读 · 2019年1月10日
从张量到自动微分:PyTorch入门教程
论智
9+阅读 · 2018年10月10日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
从零开始学习「张氏相机标定法」(四)优化算法前传
计算机视觉life
4+阅读 · 2018年3月14日
机器之心最干的文章:机器学习中的矩阵、向量求导
深度学习世界
12+阅读 · 2018年2月7日
傅里叶变换和拉普拉斯变换的物理解释及区别
算法与数学之美
11+阅读 · 2018年2月5日
CNN 反向传播算法推导
统计学习与视觉计算组
28+阅读 · 2017年12月29日
从逻辑回归到最大熵模型
夕小瑶的卖萌屋
4+阅读 · 2017年7月11日
Top
微信扫码咨询专知VIP会员