尝试将模型从Tensorflow 1.15.3迁移到Keras和Tensorflow 2.3.0

时间:2020-08-04 04:54:33

标签: python tensorflow keras migration lstm

我有一个模型,我真的不了解如何转换为Keras模型,如果有人可以看一下并帮助我入门,我将非常感激!我正在尝试找到一种使用“自我”的方法。 keras LSTM模型中的值。我真的无法通过在其他论坛上找到解决办法,而tensorflow迁移教程对我的特定问题并没有真正的帮助。

如果有人对类似的keras模型也有建议,那也将非常有帮助!

现在它正在使用compat.v1来允许我在Tensorflow 2.0中运行。

代码:

class Model:
    def __init__(
        self,
        learning_rate,
        num_layers,
        size,
        size_layer,
        output_size,
        forget_bias = 0.1,
    ):
        def lstm_cell(size_layer):
            return tf.compat.v1.nn.rnn_cell.LSTMCell(size_layer, state_is_tuple = False)

        rnn_cells = tf.compat.v1.nn.rnn_cell.MultiRNNCell(
            [lstm_cell(size_layer) for _ in range(num_layers)],
            state_is_tuple = False,
        )
        self.X = tf.compat.v1.placeholder(tf.float32, (None, None, size))
        self.Y = tf.compat.v1.placeholder(tf.float32, (None, output_size))
        drop = tf.nn.RNNCellDropoutWrapper(
            rnn_cells, output_keep_prob = forget_bias
        )
        self.hidden_layer = tf.compat.v1.placeholder(
            tf.float32, (None, num_layers * 2 * size_layer)
        )
        self.outputs, self.last_state = tf.compat.v1.nn.dynamic_rnn(
            drop, self.X, initial_state = self.hidden_layer, dtype = tf.float32
        )
        self.logits = tf.compat.v1.layers.dense(self.outputs[-1], output_size)
        self.cost = tf.reduce_mean(input_tensor=tf.square(self.Y - self.logits))
        self.optimizer = tf.compat.v1.train.AdamOptimizer(learning_rate).minimize(
            self.cost
        )

1 个答案:

答案 0 :(得分:0)

我发现在损失函数中实现的tf函数(如tf.reduce_mean,K.mean,tf.square,tf.exp等)会导致错误:

渴望执行功能的输入不能是Keras符号张量

这是我在标题中提到的tensorflow版本之间遇到的主要迁移问题。