如何为可以接受多种形状的多个输入的tf.keras模型创建一个tf.data.Dataset?

时间:2019-10-05 15:13:33

标签: tensorflow tf.keras

我有一个tf.keras模型,该模型需要接受多种形状的多种输入。我的目标是构建这种方式,以便可以使用其fitevaluate API轻松对其进行培训和评估。

到目前为止,该模型的构建如下:

class MultipleLSTM(Model):
    def __init__(self, lstm_dims=128, name='multi_lstm', **kwargs):
        super(MultipleLSTM, self).__init__(name=name)

        # initialize encoders for every attribute
        self.encoders = []
        for key, value in kwargs.items():
            self.encoders.append(self._create_encoder(lstm_dims, value))

        # initialize the rest of the network layers
        self.concat = Concatenate(axis=0)
        self.conv_1 = Conv2D(6, 4, activation='relu')
        self.flatten = Flatten()
        self.dense = Dense(128, activation='relu')
        self.out = Dense(1, activation='sigmoid')

    def call(self, inputs):
        x_1 = self.encoders[0](inputs[0])
        x_2 = self.encoders[1](inputs[1])
        x_3 = self.encoders[2](inputs[2])
        x_4 = self.encoders[3](inputs[3])

        x = self.concat([x_1, x_2, x_3, x_4])

        # fix the shape for the convolutions
        x = tf.expand_dims(x, axis=0)
        x = tf.expand_dims(x, axis=3)

        x = self.conv_1(x)
        x = self.flatten(x)
        x = self.dense(x)
        x = self.out(x)

        return x

    def _create_encoder(self, lstm_dims, conf):
        with tf.name_scope(conf['name']) as scope:
            encoder = tf.keras.Sequential(name=scope)
            encoder.add(Embedding(conf['vocab'], 
                                  conf['embed_dim'], 
                                  input_length=conf['input_length']))
            encoder.add(Bidirectional(LSTM(lstm_dims)))
        return encoder

有四种不同的输入,即长度不同的文本语句,它们被馈送到四个不同的EmbeddingLSTM层(encoders)中。然后,将这些层的输出连接起来以创建单个张量,该张量将转发到后续层。

要训练该网络,我将不同的标记化句子的列表列表作为输入传递。标签只是数字,0或1(二进制分类)。例如,输入可以是:

x = [[1, 2, 3, 4],
     [2, 3, 5],
     [3, 5, 6, 7],
     [1, 5, 7]]
y = 0

目前,我已经实现了一个自定义循环,该循环接受此类输入并训练网络:

def train(data, model, loss_fn, optimizer, metric, epochs=10, print_every=50):
    for epoch in range(epochs):
        print(f'Start of epoch {epoch+1}')

        for step, (x_batch, y_batch) in enumerate(data):
            with GradientTape() as tape:
                output = model(x_batch)
                loss = loss_fn(y_batch, output)

            grads = tape.gradient(loss, model.trainable_weights)
            optimizer.apply_gradients(zip(grads, model.trainable_weights))
            metric(loss)

            if step % print_every == 0:
                print(f'step {step}: mean loss = {metric.result()}')

但是,这阻止了我利用易于使用的tf.keras API来fitevaluate模型,甚至将数据集拆分为训练集和测试集。因此,问题是:如何从这样的x和y创建tf.data.Dataset并将其传递给fit的{​​{1}}函数?

2 个答案:

答案 0 :(得分:0)

您可以使用keras的功能性API。这是有关多输入,多输出的keras文档的链接,如果需要:Multi-input and multi-output models

答案 1 :(得分:0)

您可以直接将不同的输入作为列表传递,并拟合和评估方法。

model.fit([X_train[:,0], X_train[:,1]], y_train, ...)