信息增益(Kullback–Leibler divergence)又叫做information divergence,relative entropy 或者KLIC。 在概率论和信息论中,信息增益是非对称的,用以度量两种概率分布P和Q的差异。信息增益描述了当使用Q进行编码时,再使用P进行编码的差异。通常P代表样本或观察值的分布,也有可能是精确计算的理论分布。Q代表一种理论,模型,描述或者对P的近似。
BAT机器学习面试1000题(561~565题)
七月在线实验室
1+阅读 · 2018年10月26日
机器学习面试干货精讲
人工智能头条
2+阅读 · 2018年3月23日
BAT机器学习面试1000题(456~460题)
七月在线实验室
0+阅读 · 2018年9月19日
GAN 真的创造了新的信息吗?
极市平台
0+阅读 · 2019年5月22日
【机器学习】机器学习算法梳理
产业智能官
0+阅读 · 2017年7月28日
BAT机器学习面试1000题(496~500题)
七月在线实验室
1+阅读 · 2018年9月30日
机器学习算法实践:决策树 (Decision Tree)
Python开发者
9+阅读 · 2017年7月17日
搞定机器学习面试,这些是基础!(下载PDF)
机器学习算法与Python学习
0+阅读 · 2018年7月4日
GAN 真的创造了新的信息吗?
GAN生成式对抗网络
5+阅读 · 2019年5月24日
机器学习(5)之决策树ID3及Python实现
机器学习算法与Python学习
0+阅读 · 2017年7月12日
参考链接
父主题
微信扫码咨询专知VIP会员