分散式表示即将语言表示为稠密、低维、连续的向量。 研究者最早发现学习得到词嵌入之间存在类比关系。比如apple−apples ≈ car−cars, man−woman ≈ king – queen 等。这些方法都可以直接在大规模无标注语料上进行训练。词嵌入的质量也非常依赖于上下文窗口大小的选择。通常大的上下文窗口学到的词嵌入更反映主题信息,而小的上下文窗口学到的词嵌入更反映词的功能和上下文语义信息。
  1. GloVe: Global Vectors for Word Representation
  2. 1 人赞了 Distributed Representations of Sentences and...
  3. 深度学习(三十二)——词向量进阶
  4. Introduction to Word Embedding Models with Word2Vec
  5. zhihu.com/lives
  6. 中文维基百科语料上的Word2Vec实验 | f(x)
  7. 有谁可以解释下word embedding? - 知乎
  8. word2vec的语义类推任务word analogy task java 代码
  9. GloVe 词向量
  10. word2vec 相关paper/blog推荐
  11. 词向量( Distributed Representation)工作原理是什么? - 知乎
  12. word2vec: Tensorflow Tutorial
  13. 如何在mxnet gluon中使用预训练的word2vec
  14. 第十六课:词向量(word2vec)
  15. 词向量和 word2vec - sunoonlee
  16. 图形展示
  17. spark之路第十一课——spark MLlib之数据类型 | uohzoaix
  18. fast text Facebook...
  19. 深度神经网络训练IMDB情感分类的四种方法 · 夜露
  20. 情感分析的新方法 | f(x)
展开全文
参考链接
父主题
微信扫码咨询专知VIP会员