题目: Time2Vec: Learning a Vector Representation of Time

摘要:

在许多涉及同步或异步发生的事件的应用程序中,时间是一个重要的特性。为了有效地消耗时间信息,最近的研究集中于设计新的架构。在本文中,采用了一种正交但又互补的方法,提供了一种与模型无关的时间向量表示,称为Time2Vec,它可以很容易地导入到许多现有和未来的体系结构中并改进其性能。文中展示了一系列的模型和问题,用Time2Vec表示代替时间的概念可以提高最终模型的性能。

成为VIP会员查看完整内容
34

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
15+阅读 · 2020年4月28日
专知会员服务
53+阅读 · 2019年12月22日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
学习 | word2vec的前世今生
菜鸟的机器学习
14+阅读 · 2018年3月21日
Representation Learning on Network 网络表示学习
全球人工智能
9+阅读 · 2017年10月19日
Representation Learning on Network 网络表示学习笔记
全球人工智能
5+阅读 · 2017年9月30日
Word2Vec还可以这样图解
人工智能头条
9+阅读 · 2017年8月23日
字词的向量表示
黑龙江大学自然语言处理实验室
4+阅读 · 2016年6月13日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Arxiv
6+阅读 · 2018年6月20日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关VIP内容
相关资讯
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
学习 | word2vec的前世今生
菜鸟的机器学习
14+阅读 · 2018年3月21日
Representation Learning on Network 网络表示学习
全球人工智能
9+阅读 · 2017年10月19日
Representation Learning on Network 网络表示学习笔记
全球人工智能
5+阅读 · 2017年9月30日
Word2Vec还可以这样图解
人工智能头条
9+阅读 · 2017年8月23日
字词的向量表示
黑龙江大学自然语言处理实验室
4+阅读 · 2016年6月13日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
微信扫码咨询专知VIP会员