标签: python nltk entropy cross-entropy
我需要使用NLTK找到给定文本的总交叉熵和每个字的交叉熵。
具体来说我在这里使用熵函数... http://www.nltk.org/_modules/nltk/model/ngram.html
...但我不确定这是计算总字数还是每字字数的交叉熵以及如何计算另一个。
有人能给我一些见解吗?