为什么在变分自动编码器中使用交叉熵计算损耗

时间:2019-05-13 02:55:56

标签: tensorflow machine-learning

我正在通过阅读this来学习变分自动编码器的理论和实现。 在文档中,它说优化了以下功能:log {p(x | z)} + log {p(z)}-log {q(z | x)}。但是,在代码中,我无法理解为什么该实现使用交叉熵来计算log {p(x | z)}。有人可以向我解释交叉熵如何与log {p(x | z)}相关联吗?

谢谢。

0 个答案:

没有答案