我目前正在尝试使用自定义输入管道提供的数据来训练一个简单的张量流模型。它应该尽可能高效地工作。虽然我已经阅读了很多教程,但我无法让它发挥作用。
数据
我的训练数据分为几个csv文件。文件'a.csv'有20个样本,'b.csv'分别有30个样本。它们具有相同的结构,具有相同的标题:
feature1; feature2; feature3; feature4
0.1; 0.2; 0.3; 0.4
...
(没有标签,因为它是自动编码器。)
代码
我编写了一个输入管道,并希望将数据从它提供给模型。我的代码如下所示:
import tensorflow as tf
def input_pipeline(filenames, batch_size):
dataset = tf.data.Dataset.from_tensor_slices(filenames)
dataset = dataset.flat_map(
lambda filename: (
tf.data.TextLineDataset(filename)
.skip(1)
.shuffle(10)
.map(lambda csv_row: tf.decode_csv(
csv_row,
record_defaults=[[-1.0]]*4,
field_delim=';'))
.batch(batch_size)
)
)
return dataset.make_initializable_iterator()
iterator = input_pipeline(['/home/sku/data/a.csv',
'/home/sku/data/b.csv'],
batch_size=5)
next_element = iterator.get_next()
# Build the autoencoder
x = tf.placeholder(tf.float32, shape=[None, 4], name='in')
z = tf.contrib.layers.fully_connected(x, 2, activation_fn=tf.nn.relu)
x_hat = tf.contrib.layers.fully_connected(z, 4)
# loss function with epsilon for numeric stability
epsilon = 1e-10
loss = -tf.reduce_sum(
x * tf.log(epsilon + x_hat) + (1 - x) * tf.log(epsilon + 1 - x_hat))
train_op = tf.train.AdamOptimizer(learning_rate=1e-3).minimize(loss)
with tf.Session() as sess:
sess.run(iterator.initializer)
sess.run(tf.global_variables_initializer())
for i in range(50):
batch = sess.run(next_element)
sess.run(train_op, feed_dict={x: batch, x_hat: batch})
问题
尝试将数据提供给模型时,出现错误:
ValueError: Cannot feed value of shape (4, 5) for Tensor 'in:0', which has shape '(?, 4)'
当打印出批量数据的形状时,我得到了这个例子:
(array([ 4.1, 5.9, 5.5, 6.7, 10. ], dtype=float32), array([0.4, 7.7, 0. , 3.4, 8.7], dtype=float32), array([3.5, 4.9, 8.3, 7.2, 6.4], dtype=float32), array([-1. , -1. , 9.6, -1. , -1. ], dtype=float32))
这是有道理的,但我在哪里以及如何重塑这个?此外,此附加信息dtype仅在批处理时出现。
我还认为我喂错了。我需要input_fn或类似的东西吗?我记得喂食是慢慢的。如果有人能给我一个准备和提供数据的有效方法,我将非常感激。
此致
答案 0 :(得分:0)
我找到了一个解决方案,需要第二个映射功能。您必须将以下行添加到输入函数:
def input_pipeline(filenames, batch_size):
dataset = tf.data.Dataset.from_tensor_slices(filenames)
dataset = dataset.flat_map(
lambda filename: (
tf.data.TextLineDataset(filename)
.skip(1)
.shuffle(10)
.map(lambda csv_row: tf.decode_csv(
csv_row,
record_defaults=[[-1.0]]*4,
field_delim=';'))
.map(lambda *inputs: tf.stack(inputs)) # <-- mapping required
.batch(batch_size)
)
)
return dataset.make_initializable_iterator()
这似乎将类似数组的输出转换为矩阵,可以将其输入网络。
但是,我仍然不确定通过feed_dict喂食是否是最有效的方法。我仍然感谢这里的支持!