回顾 | 跟李沐一起动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制

2018 年 2 月 5 日 机器学习研究会

本文为2月3日(周六)上午将门联合亚马逊AI主任科学家李沐博士:从零开始入门深度学习第十八的内容回顾,继续亚马逊应用科学家Aston Zhang为大家带来。


在循环神经网络中我们学习了如何将一个序列转化成定长输出(例如一个标签)。本节课中,我们介绍了如何将一个序列转化成一个不定长的序列输出(例如一个不定长的标签序列)。

获取完整回顾视频>>关注“将门创投”(thejiangmen)微信公众号,回复“第十八课”获取下载链接。



……


获取完整回顾视频>>关注“将门创投”(thejiangmen)微信公众号,回复“第十八课”获取下载链接。


转自:将门创投

完整内容请点击“阅读原文”

登录查看更多
2

相关内容

基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
209+阅读 · 2020年4月26日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
注意力机制介绍,Attention Mechanism
专知会员服务
166+阅读 · 2019年10月13日
已删除
将门创投
5+阅读 · 2019年4月4日
已删除
将门创投
4+阅读 · 2018年1月19日
回顾 | 跟李沐一起动手学深度学习第十课:语义分割
机器学习研究会
5+阅读 · 2017年11月27日
已删除
将门创投
5+阅读 · 2017年11月20日
【回顾】PyTorch 简介
AI研习社
8+阅读 · 2017年10月29日
已删除
将门创投
3+阅读 · 2017年10月27日
已删除
将门创投
3+阅读 · 2017年10月12日
Arxiv
18+阅读 · 2019年4月5日
Arxiv
26+阅读 · 2018年9月21日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
10+阅读 · 2018年3月22日
VIP会员
相关VIP内容
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
209+阅读 · 2020年4月26日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
注意力机制介绍,Attention Mechanism
专知会员服务
166+阅读 · 2019年10月13日
相关资讯
已删除
将门创投
5+阅读 · 2019年4月4日
已删除
将门创投
4+阅读 · 2018年1月19日
回顾 | 跟李沐一起动手学深度学习第十课:语义分割
机器学习研究会
5+阅读 · 2017年11月27日
已删除
将门创投
5+阅读 · 2017年11月20日
【回顾】PyTorch 简介
AI研习社
8+阅读 · 2017年10月29日
已删除
将门创投
3+阅读 · 2017年10月27日
已删除
将门创投
3+阅读 · 2017年10月12日
Top
微信扫码咨询专知VIP会员