在密集Keras层中捆绑自动编码器权重

时间:2018-12-12 20:41:48

标签: python keras autoencoder

我正在尝试在Keras中创建一个自定义的密集层,以将权重绑定到自动编码器中。我已经尝试过在卷积层here中执行此操作的示例,但是似乎某些步骤不适用于Dense层(同样,代码来自两年多以前)。

通过绑定权重,我希望解码层使用编码层的转置权重矩阵。 this article(第5页)中也采用了这种方法。以下是文章的相关引用:

  

在这里,我们将编码和解码激活函数都选择为S型函数,并且仅考虑   约束权重情况,其中W'= W T   (其中W T   是个   将W)转置为大多数现有的深度学习方法   

在上面的引用中, W 是编码层中的权重矩阵,而 W'(等于 W 的转置)是解码层中的权重矩阵。

我在致密层的变化不大。我在构造函数中添加了一个tied_to参数,该参数允许您传递要绑定到的图层。唯一的其他更改是对build函数的更改,其代码片段如下:

def build(self, input_shape):
    assert len(input_shape) >= 2
    input_dim = input_shape[-1]

    if self.tied_to is not None:
        self.kernel = K.transpose(self.tied_to.kernel)
        self._non_trainable_weights.append(self.kernel)
    else:
        self.kernel = self.add_weight(shape=(input_dim, self.units),
                                      initializer=self.kernel_initializer,
                                      name='kernel',
                                      regularizer=self.kernel_regularizer,
                                      constraint=self.kernel_constraint)
    if self.use_bias:
        self.bias = self.add_weight(shape=(self.units,),
                                    initializer=self.bias_initializer,
                                    name='bias',
                                    regularizer=self.bias_regularizer,
                                    constraint=self.bias_constraint)
    else:
        self.bias = None
    self.input_spec = InputSpec(min_ndim=2, axes={-1: input_dim})
    self.built = True

下面是__init__方法,这里唯一的变化是添加了tied_to参数。

def __init__(self, units,
             activation=None,
             use_bias=True,
             kernel_initializer='glorot_uniform',
             bias_initializer='zeros',
             kernel_regularizer=None,
             bias_regularizer=None,
             activity_regularizer=None,
             kernel_constraint=None,
             bias_constraint=None,
             tied_to=None,
             **kwargs):
    if 'input_shape' not in kwargs and 'input_dim' in kwargs:
        kwargs['input_shape'] = (kwargs.pop('input_dim'),)
    super(Dense, self).__init__(**kwargs)
    self.units = units
    self.activation = activations.get(activation)
    self.use_bias = use_bias
    self.kernel_initializer = initializers.get(kernel_initializer)
    self.bias_initializer = initializers.get(bias_initializer)
    self.kernel_regularizer = regularizers.get(kernel_regularizer)
    self.bias_regularizer = regularizers.get(bias_regularizer)
    self.activity_regularizer = regularizers.get(activity_regularizer)
    self.kernel_constraint = constraints.get(kernel_constraint)
    self.bias_constraint = constraints.get(bias_constraint)
    self.input_spec = InputSpec(min_ndim=2)
    self.supports_masking = True
    self.tied_to = tied_to

call函数尚未编辑,但在下面供参考。

def call(self, inputs):
    output = K.dot(inputs, self.kernel)
    if self.use_bias:
        output = K.bias_add(output, self.bias, data_format='channels_last')
    if self.activation is not None:
        output = self.activation(output)
    return output

上面,我添加了一个条件来检查是否设置了tied_to参数,如果已设置,则将该层的内核设置为tied_to层内核的转置。

下面是用于实例化模型的代码。这是使用Keras的顺序API完成的,DenseTied是我的自定义层。

# encoder
#
encoded1 = Dense(2, activation="sigmoid")

decoded1 = DenseTied(4, activation="sigmoid", tied_to=encoded1)

# autoencoder
#
autoencoder = Sequential()
autoencoder.add(encoded1)
autoencoder.add(decoded1)

训练模型后,下面是模型摘要和权重。

autoencoder.summary()
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
dense_7 (Dense)              (None, 2)                 10        
_________________________________________________________________
dense_tied_7 (DenseTied)     (None, 4)                 12        
=================================================================
Total params: 22
Trainable params: 14
Non-trainable params: 8
________________________________________________________________

autoencoder.layers[0].get_weights()[0]
array([[-2.122982  ,  0.43029135],
       [-2.1772149 ,  0.16689162],
       [-1.0465667 ,  0.9828905 ],
       [-0.6830663 ,  0.0512633 ]], dtype=float32)


autoencoder.layers[-1].get_weights()[1]
array([[-0.6521988 , -0.7131109 ,  0.14814234,  0.26533198],
       [ 0.04387903, -0.22077179,  0.517225  , -0.21583867]],
      dtype=float32)

如您所见,autoencoder.get_weights()报告的权重似乎并不紧密。

因此,在展示了我的方法之后,我的问题是,这是在Dense Keras层中绑定权重的有效方法吗?我能够运行代码,并且当前正在培训中。损失函数似乎也在合理减少。我担心这只会在构建模型时将它们设置为相等,而实际上并不会约束它们。我希望后端transpose函数通过幕后的引用将它们绑定在一起,但是我确信我会丢失一些东西。

2 个答案:

答案 0 :(得分:2)

感谢Mikhail Berlinkov, 重要提示:该代码在Keras下运行,但在TF2.0中不在急切模式下运行。它可以运行,但是训练效果很差。

关键是对象如何存储转置的权重。 self.kernel = K.transpose(self.tied_to.kernel)

在非紧急模式下,这将以正确的方式创建图形。在热切模式下,此操作失败,可能是因为转置变量的值存储在build(==第一次调用)中,然后在后续调用中使用。

但是:解决方案是在构建时不更改地存储变量, 并将移调操作放入call方法中。

我花了几天的时间来解决这个问题,如果能帮助任何人,我感到很高兴。

答案 1 :(得分:1)

  

因此,在展示了我的方法之后,我的问题是,这是在密集Keras层中绑定权重的有效方法吗?

是的,有效。

  

我担心的是,这只会在构建模型时将它们设置为相等,而实际上不会将它们绑定在一起。我希望后端转置功能通过幕后的引用将它们绑定在一起,但是我确定我会丢失一些东西。

它实际上将它们绑在一个计算图中,您可以在打印model.summary()时检查一下这些可训练砝码只有一个副本。另外,训练模型后,您可以使用model.get_weights()检查相应层的权重。构建模型后,实际上还没有权重,只是它们的占位符。

random.seed(1)

class DenseTied(Layer):
    def __init__(self, units,
                 activation=None,
                 use_bias=True,
                 kernel_initializer='glorot_uniform',
                 bias_initializer='zeros',
                 kernel_regularizer=None,
                 bias_regularizer=None,
                 activity_regularizer=None,
                 kernel_constraint=None,
                 bias_constraint=None,
                 tied_to=None,
                 **kwargs):
        self.tied_to = tied_to
        if 'input_shape' not in kwargs and 'input_dim' in kwargs:
            kwargs['input_shape'] = (kwargs.pop('input_dim'),)
        super().__init__(**kwargs)
        self.units = units
        self.activation = activations.get(activation)
        self.use_bias = use_bias
        self.kernel_initializer = initializers.get(kernel_initializer)
        self.bias_initializer = initializers.get(bias_initializer)
        self.kernel_regularizer = regularizers.get(kernel_regularizer)
        self.bias_regularizer = regularizers.get(bias_regularizer)
        self.activity_regularizer = regularizers.get(activity_regularizer)
        self.kernel_constraint = constraints.get(kernel_constraint)
        self.bias_constraint = constraints.get(bias_constraint)
        self.input_spec = InputSpec(min_ndim=2)
        self.supports_masking = True

    def build(self, input_shape):
        assert len(input_shape) >= 2
        input_dim = input_shape[-1]

        if self.tied_to is not None:
            self.kernel = K.transpose(self.tied_to.kernel)
            self._non_trainable_weights.append(self.kernel)
        else:
            self.kernel = self.add_weight(shape=(input_dim, self.units),
                                          initializer=self.kernel_initializer,
                                          name='kernel',
                                          regularizer=self.kernel_regularizer,
                                          constraint=self.kernel_constraint)
        if self.use_bias:
            self.bias = self.add_weight(shape=(self.units,),
                                        initializer=self.bias_initializer,
                                        name='bias',
                                        regularizer=self.bias_regularizer,
                                        constraint=self.bias_constraint)
        else:
            self.bias = None

        self.built = True

    def compute_output_shape(self, input_shape):
        assert input_shape and len(input_shape) >= 2
        assert input_shape[-1] == self.units
        output_shape = list(input_shape)
        output_shape[-1] = self.units
        return tuple(output_shape)

    def call(self, inputs):
        output = K.dot(inputs, self.kernel)
        if self.use_bias:
            output = K.bias_add(output, self.bias, data_format='channels_last')
        if self.activation is not None:
            output = self.activation(output)
        return output


# input_ = Input(shape=(16,), dtype=np.float32)
# encoder
#
encoded1 = Dense(4, activation="sigmoid", input_shape=(4,), use_bias=True)
decoded1 = DenseTied(4, activation="sigmoid", tied_to=encoded1, use_bias=False)

# autoencoder
#
autoencoder = Sequential()
# autoencoder.add(input_)
autoencoder.add(encoded1)
autoencoder.add(decoded1)

autoencoder.compile(optimizer="adam", loss="binary_crossentropy")

print(autoencoder.summary())

autoencoder.fit(x=np.random.rand(100, 4), y=np.random.randint(0, 1, size=(100, 4)))

print(autoencoder.layers[0].get_weights()[0])
print(autoencoder.layers[1].get_weights()[0])