为什么具有低维潜在空间的变分自动编码器更好地生成模型?

时间:2019-06-19 05:22:07

标签: machine-learning deep-learning data-science autoencoder

以下是条件VAE生成的一些样本,其中: 1. 3D潜在空间 Samples generated by 3D latent space 2. 30D潜在空间 Generated samples by 30D latent space 我想知道为什么低维潜在空间VAE会成为更好的生成器,而我却坚持逻辑推理。
我的直觉说,当我们有一个低维度的潜在空间(如模型中指出的最多5个维度)时,后置潜在变量没有足够的空间分布在不存在的数据模式上原始纸张),而高维度的潜在空间则允许后方在所有维度上展开,从而使VAE能够适应不存在的模式。论文Kingma et al, 2014也提到了这种现象,但对此没有进一步的解释。
我的问题:我的逻辑推理正确吗?如果是,那么这种逻辑思维背后是否有任何理论解释?


Code I used to generate samples

0 个答案:

没有答案