分散式表示即将语言表示为稠密、低维、连续的向量。 研究者最早发现学习得到词嵌入之间存在类比关系。比如apple−apples ≈ car−cars, man−woman ≈ king – queen 等。这些方法都可以直接在大规模无标注语料上进行训练。词嵌入的质量也非常依赖于上下文窗口大小的选择。通常大的上下文窗口学到的词嵌入更反映主题信息,而小的上下文窗口学到的词嵌入更反映词的功能和上下文语义信息。
美图个性化推送的 AI 探索之路
DataFunTalk
0+阅读 · 2020年3月18日
Doc2vec原理解析及代码实践
AINLP
0+阅读 · 2020年4月25日
图表示学习起源: 从Word2vec到DeepWalk
图与推荐
0+阅读 · 2020年3月24日
深度学习在推荐系统上的应用
架构文摘
13+阅读 · 2018年2月22日
著名的「词类比」现象可能只是一场高端作弊
AI科技评论
2+阅读 · 2019年8月18日
用CNN做在NLP句子分类
数据挖掘入门与实战
7+阅读 · 2018年5月9日
再评Airbnb的经典Embedding论文
机器学习与推荐算法
1+阅读 · 2020年9月3日
【Embedding】fastText:极快的文本分类工具
深度学习自然语言处理
0+阅读 · 2020年5月3日
超详细!腾讯NLP算法岗面经(已offer)
AINLP
0+阅读 · 2020年4月3日
参考链接
父主题
微信扫码咨询专知VIP会员