反向传播一词严格来说仅指用于计算梯度的算法,而不是指如何使用梯度。但是该术语通常被宽松地指整个学习算法,包括如何使用梯度,例如通过随机梯度下降。反向传播将增量计算概括为增量规则中的增量规则,该规则是反向传播的单层版本,然后通过自动微分进行广义化,其中反向传播是反向累积(或“反向模式”)的特例。 在机器学习中,反向传播(backprop)是一种广泛用于训练前馈神经网络以进行监督学习的算法。对于其他人工神经网络(ANN)都存在反向传播的一般化–一类算法,通常称为“反向传播”。反向传播算法的工作原理是,通过链规则计算损失函数相对于每个权重的梯度,一次计算一层,从最后一层开始向后迭代,以避免链规则中中间项的冗余计算。
  1. 深度学习---反向传播的具体案例
  2. CS231n Convolutional Neural Networks for Visual Recognition
  3. 反向传播:可计算的图形(Computational Graphs...
  4. Deep Learning without Backpropagation - i am trask
  5. A Neural Network in 11 lines of Python (Part 1) - i am trask
  6. 循环神经网络教程第三部分-BPTT和梯度消失
  7. 神经网络中利用矩阵进行反向传播运算的实质
  8. Batch Normalization的反向传播 | H.C's Blog
  9. Factor-Network DEMO
  10. 通俗理解神经网络BP传播算法
  11. 详解反向传播算法(下)
  12. 第十三课:正向传播、反向传播和通过时间反向传播
  13. 《神经网络与深度学习》笔记6-反向传播算法(下)
  14. 河童的世界
  15. softmax层反向传播求导过程
  16. PyTorch中的backward | Sherlock Blog
  17. 趣AI
  18. Bptt反向传播算法 In Rnn | Xiandong
  19. C++/ Deep Learning/ Computer Vision
  20. 用例子学习 PyTorch | 技术闲谈
展开全文
微信扫码咨询专知VIP会员