我目前正在Tensorflow中设计一个NoisyNet,为此我需要定义一个自定义层。复制包含该自定义图层的模型时,python会引发错误ValueError: Unknown layer: NoisyLayer
。 here提供了该层的实现。
目标是复制一个网络以创建第二个网络实例。为此,我使用命令net_copy = copy.deepcopy(net_original)
,只要我在要复制的模型中不包括上面提到的自定义层,该命令就可以使用。
我看到了用于保存和加载的一种方法,可以指定自定义属性(例如自定义图层),但是我找不到适用于copy.deepcopy()
的类似命令,其中复制是通过{{1 }}。
我在Python3中使用Tensorflow 1.12.0。
同样,自定义层位于上面的链接下。 使用自定义层的网络如下所示:
import copy
打电话时
class Network:
def __init__(self, actionspace_size, learning_rate, gradient_momentum, gradient_min):
frames_input = keras.layers.Input((84, 84, 4))
actions_input = keras.layers.Input((actionspace_size,))
conv1 = keras.layers.Conv2D(16, (8, 8), strides=(4, 4), activation="relu")(frames_input)
conv2 = keras.layers.Conv2D(32, (4, 4), strides=(2, 2), activation="relu")(conv1)
flattened = keras.layers.Flatten()(conv2)
# NoisyNet
hidden = NoisyLayer(activation=tf.nn.relu)(inputs=flattened, resample_noise_flag=True)
output = NoisyLayer(in_shape=(1,256), out_units=actionspace_size)(inputs=hidden, resample_noise_flag=True)
filtered_output = keras.layers.merge.Multiply()([output, actions_input])
self.model = keras.models.Model(inputs=[frames_input, actions_input], outputs=filtered_output)
self.model.compile(loss='mse', optimizer=keras.optimizers.RMSprop(lr=learning_rate, rho=gradient_momentum, epsilon=gradient_min))
出现以下错误:
q_net = Network(actionspace_size, learning_rate, gradient_momentum, gradient_min).
target_net = copy.deepcopy(q_net)
我知道网络本身不是问题(也不是Deepcopy方法),因为一旦我将NoisyLayers(自定义)替换为标准密集层,两者都可以正常工作。
有人知道如何复制包含自定义图层的Tensorflow模型吗?预先感谢!
答案 0 :(得分:0)
找到了解决方案:
问题再次出在Tensorflow / Keras不知道如何解释自定义层的问题。因此,要提供有关如何解释图层的信息,可以使用Keras的CustomObjectScope
并在该范围内复制模型,如下所示:
# Import
import copy
from keras.utils import CustomObjectScope
# Copy
with CustomObjectScope({"MyCustomLayer":MyCustomLayer}):
model_copy = copy.deepcopy(model)
这负责复印部分。但是,只有在没有将自定义输入指定为自定义层的构造函数(__init(...)
)的参数的情况下,这才是开箱即用的。
我猜是这样,因为在后台,copy()函数似乎是临时保存的,然后使用某种pickle
功能,然后再次加载原始模型,因此必须为进一步的构造方法声明值-参数以及如下:
如果自定义类的开头如下所示,则output_dim
是上述自定义参数之一:
class MyCustomLayer(keras.layers.Layer):
def __init__(self, output_dim, **kwargs):
self.output_dim = output_dim
super(MyCustomLayer, self).__init__(**kwargs)
然后必须向类MyCustomLayer
中添加一个函数,该函数还应确保使自定义构造函数参数永久保存和加载(在复制时):
def get_config(self):
config = super(MyCustomLayer, self).get_config()
# Specify here all the values for the constructor's parameters
config['output_dim'] = self.output_dim
return config
这两个步骤解决了我的问题。