如何在不丢失已经训练过的重量的情况下训练CNN(记忆丧失效应)

时间:2017-10-19 16:31:26

标签: tensorflow neural-network conv-neural-network

根据我的研究,没有什么可以通过使用tensorflow来处理“记忆丧失”效应(我认为这是最完整的库)。通过这种方式,我想提出与此相关的问题。

考虑到用于训练的大量图像的假设情景,并且这种训练需要数小时才能发生,给了我准确的权重。现在,我想通过呈现更多图像来使我的模型更加健壮,当然,无需再次呈现初始集。我想在不丢失已有记忆的情况下添加知识!

tensorflow中有什么东西可以处理这种情况吗?或者我应该再用整套训练?

0 个答案:

没有答案
相关问题