交叉熵(Cross Entropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息。语言模型的性能通常用交叉熵和复杂度(perplexity)来衡量。交叉熵的意义是用该模型对文本识别的难度,或者从压缩的角度来看,每个词平均要用几个位来编码。
Arxiv
0+阅读 · 2月23日
Arxiv
0+阅读 · 2023年11月11日
参考链接
微信扫码咨询专知VIP会员