使用熵或其他方法的随机变量的重要性

时间:2017-03-25 18:58:20

标签: random entropy information-theory cross-entropy

我有一个二维随机向量 x = [ x 1 x 2 ] T 具有已知的联合概率密度函数(PDF)。 PDF是非高斯的,随机向量的两个条目在统计上是依赖。我需要证明,例如 x 1 x 2 更重要 ,就其携带的信息的数量而言。这个问题有经典的解决方案吗?我可以证明, x 所携带的总信息的n%位于 x 1 和100- n%由 x 2 承载?

我认为衡量信息量的标准方法是计算熵。有线索吗?

0 个答案:

没有答案