分类任务中的CE损失和KL分歧

时间:2019-02-01 05:38:19

标签: deep-learning classification

我对KLD和CE的概念有些困惑。 我知道CE损失的效果与最小化KL散度相同。

(KL divergence(P||Q) = cross entropy(P,Q) - entropy(P). because P is constant.)

(当Q是地面真相分布时)

在分类任务中,我们通常使用CE(P,Q)而不是CE(Q,P)

为什么我们不使用CE(Q,P)

KLD(P||Q)KLD(Q||P)不同,我认为CE(Q,P)可以帮助CE(P,Q)做不到。

我想念什么?

0 个答案:

没有答案