Day2_netural machine translation 论文阅读总结

经过两天的折磨,终于把循环神经网络搞明白了.

上两张图:RNN的最好解释,在一位博主看到的。

https://zhuanlan.zhihu.com/p/36192233

双向循环神经网络图:其表示隐藏层的 不仅会收到到t-1时刻的影响,也会手打t+1时刻的影响,

 

  1. 变长输入的句子编码成定长的变量-----变长的输入句子编码成变长的变量
  2. LSMT--->门函数-->梯度下降---->损失函数
  3. 损失函数又叫代价函数,f(x)会得到与真实的Y相近的值,如果(f(x)-Y)^2越小,损失函数越小,拟合度越好。https://www.zhihu.com/question/52398145
  4. 梯度下降利用梯度下降算法来拟合一个函数,然后利用代价函数公式,进行找出最优解进行迭代 https://www.jianshu.com/p/c7e642877b0e   
  5. 公式一ht = f (xt, ht1--将输入序列转变为向量c
  6. 公式二:  p(y) =(相乘)p(yt | {y1, · · · , yt1} , c) ,计算下一个位置的概率
  7. 公式三:使用RNN模型,将每一个条件概率映射为一个模型p(yt | {y1, · · · , yt1} , c) = g(yt1, st, c)
  8. 公式四:计算上下文向量ci,根据注释来确定,系数生成翻译中的单词与源语句中的软对齐
  9. .关于对齐: 有软对齐和硬对齐。http://www.shuang0420.com/2017/05/01/NLP%20%E7%AC%94%E8%AE%B0%20-%20Machine%20Translation/                                        

 

posted @ 2018-10-17 21:48  足下水清  Views(253)  Comments(0Edit  收藏  举报