我有一个文件train.csv
,其中包含图片及其标签的路径。即:
img1.jpg 3
img2.jpg 1
...
完成reading data tutorial后,我想出了一些代码来浏览每张图片,调整大小并应用扭曲:
def apply_distortions(resized_image):
# do a bunch of tf.image distortion...
return float_image
def processing(filename):
file_contents = tf.read_file(filename)
image = tf.image.decode_jpeg(file_contents, channels=3)
resized_image = tf.image.resize_images(image, 299, 299)
distorted_image = apply_distortions(resized_image)
return distorted_image
def parse_csv(filename_queue):
line_reader = tf.TextLineReader()
key, line = line_reader.read(filename_queue)
filename, label = tf.decode_csv(line, # line_batch or line (depending if you want to batch)
record_defaults=[tf.constant([],dtype=tf.string),
tf.constant([],dtype=tf.int32)],
field_delim=' ')
processed_image = processing(filename)
return processed_image, label
现在的问题是,我很困惑如何在文件中并行执行这些操作。文档建议使用tf.train.batch_join
或tf.train.batch
使用num_threads = N。
我首先尝试使用tf.train.batch_join
跟踪示例代码,但这似乎是为了并行处理多个文件。在我的情况下,我只有1个文件。
filename_queue = tf.train.string_input_producer(["train.txt"], num_epochs=1, shuffle=True)
example_list = [parse_csv(filename_queue) for _ in range(8)]
example_batch, label_batch = tf.train.batch_join(example_list, batch_size)
我也试过设置tf.train.batch([example, label], batch_size, num_threads=8)
但是我不清楚这是不是正确的事情(虽然我可以看到更多的cpu核心在使用)
filename_queue = tf.train.string_input_producer(["train.txt"], num_epochs=1, shuffle=True)
example, label = parse_csv(filename_queue)
example_batch, label_batch = tf.train.batch([example, label], batch_size, num_threads=8)
这是我执行图表的代码:
sess.run(tf.initialize_all_variables())
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess,coord)
try:
while not coord.should_stop():
X, Y = sess.run([example_batch, label_batch])
# Now run a training step
except tf.errors.OutOfRangeError:
print('Done training -- epoch limit reached')
finally:
# When done, ask the threads to stop.
coord.request_stop()
coord.join(threads)
sess.close()
什么是并行处理此文件的最佳方式?
答案 0 :(得分:5)
两者似乎都是可行的方法。将batch
与threads=N
一起使用会创建连接到您队列的阅读器的N
个副本,以便它们可以并行运行,而batch_join
则必须手动创建副本。
在使用batch_join
时,您正在创建TextLineReader
的多个副本(正如您所注意到的)只会在文件之间进行并行化。要让多个线程读取单个文件,您可以使用同一个读取器创建一个TextLineReader
并使用多个line_reader.read
操作。
以下是一些包含数字
的文本文件的示例生成数字:
num_files=10
num_entries_per_file=10
file_root="/temp/pipeline"
os.system('mkdir -p '+file_root)
for fi in range(num_files):
fname = file_root+"/"+str(fi)
dump_numbers_to_file(fname, fi*num_entries_per_file, (fi+1)*num_entries_per_file)
批量读取这些数字2,并行度为2
ops.reset_default_graph()
filename_queue = tf.train.string_input_producer(["/temp/pipeline/0",
"/temp/pipeline/1"],
shuffle=False)
reader = tf.TextLineReader()
key, value = reader.read(filename_queue)
numeric_val1, = tf.decode_csv(value, record_defaults=[[-1]])
numeric_val2, = tf.decode_csv(value, record_defaults=[[-1]])
numeric_batch = tf.batch_join([[numeric_val1,], [numeric_val2]], 2)
# have to create session before queue runners because they use default session
sess = create_session()
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(coord=coord)
print '\n'.join([t.name for t in threads])
for i in range(20):
print sess.run([numeric_batch])
coord.request_stop()
coord.join(threads)
您可能会看到以下内容:
QueueRunner(input_producer:input_producer/input_producer_EnqueueMany)
QueueRunner(input_producer:input_producer/input_producer_Close_1)
QueueRunner(batch_join/fifo_queue:batch_join/fifo_queue_enqueue)
QueueRunner(batch_join/fifo_queue:batch_join/fifo_queue_enqueue_1)
QueueRunner(batch_join/fifo_queue:batch_join/fifo_queue_Close_1)
[array([0, 1], dtype=int32)]
[array([2, 3], dtype=int32)]
[array([4, 5], dtype=int32)]
[array([6, 7], dtype=int32)]
[array([8, 9], dtype=int32)]
[array([10, 11], dtype=int32)]
[array([12, 13], dtype=int32)]
[array([14, 15], dtype=int32)]
[array([16, 17], dtype=int32)]
[array([18, 19], dtype=int32)]
从线程列表中,您可以看到有2个线程对应于读取操作(fifo_queue_enqueue
和fifo_queue_enqueue_1
,因此您可以并行执行2次读取)