大图像上的样式转移。 (大块?)

时间:2019-12-27 16:26:56

标签: computer-vision conv-neural-network style-transfer

我正在研究各种样式转换模型,我注意到它们的分辨率都有限(例如,在Pixel 3上运行时,不能超过1,024x1,024,否则不能超过OOM)。

我注意到一些应用程序(例如this app)似乎在进行样式转换,最多可显示约10MP张图像,这些应用程序还显示进度条,我想这意味着它们不仅会调用整个图像的单一tensorflow“运行”方法,否则他们将不知道要处理多少。

我猜他们正在使用某种平铺方式,但是天真地将图像分割为256x256会产生不一致的样式(不仅仅是在边框上)。

由于这似乎是一个显而易见的问题,我试图找到有关此的任何出版物,但找不到任何出版物。我想念什么吗?

谢谢!

1 个答案:

答案 0 :(得分:0)

我猜想人们会将模型分成多个模型(对于VGG,它很容易手动完成,例如通过图层),然后使用model_summary Keras函数(或基准)来估算每个步骤所需的相对时间,从而提供指导进度条。这种分离可能还节省了内存,因为tensorflow lite可能不够聪明,以至于在不需要它们时,可以重用存储来自较低层的中间激活的内存。