我有一个模型,我真的不了解如何转换为Keras模型,如果有人可以看一下并帮助我入门,我将非常感激!我正在尝试找到一种使用“自我”的方法。 keras LSTM模型中的值。我真的无法通过在其他论坛上找到解决办法,而tensorflow迁移教程对我的特定问题并没有真正的帮助。
如果有人对类似的keras模型也有建议,那也将非常有帮助!
现在它正在使用compat.v1来允许我在Tensorflow 2.0中运行。
代码:
class Model:
def __init__(
self,
learning_rate,
num_layers,
size,
size_layer,
output_size,
forget_bias = 0.1,
):
def lstm_cell(size_layer):
return tf.compat.v1.nn.rnn_cell.LSTMCell(size_layer, state_is_tuple = False)
rnn_cells = tf.compat.v1.nn.rnn_cell.MultiRNNCell(
[lstm_cell(size_layer) for _ in range(num_layers)],
state_is_tuple = False,
)
self.X = tf.compat.v1.placeholder(tf.float32, (None, None, size))
self.Y = tf.compat.v1.placeholder(tf.float32, (None, output_size))
drop = tf.nn.RNNCellDropoutWrapper(
rnn_cells, output_keep_prob = forget_bias
)
self.hidden_layer = tf.compat.v1.placeholder(
tf.float32, (None, num_layers * 2 * size_layer)
)
self.outputs, self.last_state = tf.compat.v1.nn.dynamic_rnn(
drop, self.X, initial_state = self.hidden_layer, dtype = tf.float32
)
self.logits = tf.compat.v1.layers.dense(self.outputs[-1], output_size)
self.cost = tf.reduce_mean(input_tensor=tf.square(self.Y - self.logits))
self.optimizer = tf.compat.v1.train.AdamOptimizer(learning_rate).minimize(
self.cost
)
答案 0 :(得分:0)
我发现在损失函数中实现的tf函数(如tf.reduce_mean,K.mean,tf.square,tf.exp等)会导致错误:
渴望执行功能的输入不能是Keras符号张量
这是我在标题中提到的tensorflow版本之间遇到的主要迁移问题。