具有多个输入的Keras功能API和损失功能

时间:2018-11-09 09:57:18

标签: function tensorflow keras loss

我正在尝试使用自定义的Keras损失函数,该函数除了通常的签名(y_true, y_pred)外还包含另一个参数sigma(它也是由网络的最后一层产生的)。 训练工作正常,但是我不确定如何执行前向传播并返回sigma(而mumodel.predict方法的输出)。 这是我正在使用的代码,它具有一个自定义层GaussianLayer,该层返回列表[mu, sigma]

import tensorflow as tf
from keras import backend as K
from keras.layers import Input, Dense, Layer, Dropout
from keras.models import Model
from keras.initializers import glorot_normal
import numpy as np

def custom_loss(sigma):
    def gaussian_loss(y_true, y_pred):
        return tf.reduce_mean(0.5*tf.log(sigma) + 0.5*tf.div(tf.square(y_true - y_pred), sigma)) + 10
    return gaussian_loss

class GaussianLayer(Layer):

    def __init__(self, output_dim, **kwargs):
        self.output_dim = output_dim
        super(GaussianLayer, self).__init__(**kwargs)

    def build(self, input_shape):
        self.kernel_1 = self.add_weight(name='kernel_1', 
                                      shape=(30, self.output_dim),
                                      initializer=glorot_normal(),
                                      trainable=True)
        self.kernel_2 = self.add_weight(name='kernel_2', 
                                      shape=(30, self.output_dim),
                                      initializer=glorot_normal(),
                                      trainable=True)
        self.bias_1 = self.add_weight(name='bias_1',
                                    shape=(self.output_dim, ),
                                    initializer=glorot_normal(),
                                    trainable=True)
        self.bias_2 = self.add_weight(name='bias_2',
                                    shape=(self.output_dim, ),
                                    initializer=glorot_normal(),
                                    trainable=True)
        super(GaussianLayer, self).build(input_shape) 

    def call(self, x):
        output_mu  = K.dot(x, self.kernel_1) + self.bias_1
        output_sig = K.dot(x, self.kernel_2) + self.bias_2
        output_sig_pos = K.log(1 + K.exp(output_sig)) + 1e-06  
        return [output_mu, output_sig_pos]

    def compute_output_shape(self, input_shape):
        return [(input_shape[0], self.output_dim), (input_shape[0], self.output_dim)]

# This returns a tensor
inputs = Input(shape=(1,))
x = Dense(30, activation='relu')(inputs)
x = Dropout(0.3)(x)
x = Dense(30, activation='relu')(x)
x = Dense(40, activation='relu')(x)
x = Dropout(0.3)(x)
x = Dense(30, activation='relu')(x)
mu, sigma = GaussianLayer(1)(x)

model = Model(inputs, mu)
model.compile(loss=custom_loss(sigma), optimizer='adam')
model.fit(train_x, train_y, epochs=150)

2 个答案:

答案 0 :(得分:0)

由于模型返回两个张量作为输出,因此在调用fit()方法时,还需要传递两个数组的列表作为输出。这实质上就是错误要传达的内容:

  

检查模型目标时出错:

因此错误出在目标(即标签)中。怎么了?

  

您要传递给模型的Numpy数组列表不是模型期望的大小预期以查看 2个阵列,但获取以下 1个阵列列表:

答案 1 :(得分:0)

我可能在Keras FAQs中找到了答案。 我发现可以使用下面的代码片段检索中间步骤的输出:

layer_name = 'main_output'
intermediate_layer_model = Model(inputs=model.input,
                                 outputs=model.get_layer(layer_name).output)
intermediate_output = intermediate_layer_model.predict(train_x[0])
intermediate_output

在这种情况下,intermediate_output是两个值[mu, sigma]的列表(只需要命名输出层main_output并在以后检索它)