摘要:根据documentation,Keras model.fit()
应该接受tf.dataset作为输入(我使用的是TF版本1.12.0)。如果我手动执行训练步骤,但可以在同一模型上使用model.fit()
,则可以解决我的错误。
这是我所做的工作的草图:我的数据集太大而无法容纳在内存中,它包含许多文件,每个文件具有不同的行数(100个要素,标签)。我想使用tf.data
建立我的数据管道:
def data_loader(filename):
'''load a single data file with many rows'''
features, labels = load_hdf5(filename)
...
return features, labels
def make_dataset(filenames, batch_size):
'''read files one by one, pick individual rows, batch them and repeat'''
dataset = tf.data.Dataset.from_tensor_slices(filenames)
dataset = dataset.map( # Problem here! See edit for solution
lambda filename: tuple(tf.py_func(data_loader, [filename], [float32, tf.float32])))
dataset = dataset.flat_map(
lambda features, labels: tf.data.Dataset.from_tensor_slices((features, labels)))
dataset = dataset.batch(batch_size)
dataset = dataset.repeat()
dataset = dataset.prefetch(1000)
return dataset
_BATCH_SIZE = 128
training_set = make_dataset(training_files, batch_size=_BATCH_SIZE)
我想尝试一个非常基本的逻辑回归模型:
inputs = tf.keras.layers.Input(shape=(100,))
outputs = tf.keras.layers.Dense(1, activation='softmax')(inputs)
model = tf.keras.Model(inputs, outputs)
如果我手动对其进行培训,那么一切都会很好,例如:
labels = tf.placeholder(tf.float32)
loss = tf.reduce_mean(tf.keras.backend.categorical_crossentropy(labels, outputs))
train_step = tf.train.GradientDescentOptimizer(.05).minimize(loss)
iterator = training_set.make_one_shot_iterator()
next_element = iterator.get_next()
init_op = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init_op)
for i in range(training_size // _BATCH_SIZE):
x, y = sess.run(next_element)
train_step.run(feed_dict={inputs: x, labels: y})
但是,如果我改为尝试像这样使用model.fit
:
model.compile('adam', 'categorical_crossentropy', metrics=['acc'])
model.fit(training_set.make_one_shot_iterator(),
steps_per_epoch=training_size // _BATCH_SIZE,
epochs=1,
verbose=1)
我在keras的ValueError: Cannot take the length of Shape with unknown rank.
函数中收到一条错误消息_standardize_user_data
。
我尝试了很多事情,但无法解决问题。有什么想法吗?
编辑:根据@kvish的答案,解决方案是将映射从lambda更改为可指定正确张量尺寸的函数,例如:
def data_loader(filename):
def loader_impl(filename):
features, labels, _ = load_hdf5(filename)
...
return features, labels
features, labels = tf.py_func(loader_impl, [filename], [tf.float32, tf.float32])
features.set_shape((None, 100))
labels.set_shape((None, 1))
return features, labels
现在,所有需要做的就是从map
调用此函数:
dataset = dataset.map(data_loader)
答案 0 :(得分:3)
可能tf.py_func产生了Keras无法推断的未知形状。我们可以使用set_shape(your_shape)方法设置由它返回的张量的形状,这将帮助Keras推断结果的形状。