我刚开始使用Slim并且非常喜欢它。我使用slim.dataset_data_provider
制作了一个mnist测试代码,但发现它比本机tensorflow慢得多,我在内存中加载了所有数据。
我想这是因为来自硬盘的瘦数据提供者流数据?我想知道是否有一个示例使用数据提供程序进行内存数据访问。
我已在num_readers = 10
中设置了DatasetDataProvider
,并在num_threads = 10
中设置了tf.train.batch
。
感谢。这是一个很好的工具。
还附上了参考代码:
import tensorflow as tf
import time
import sys
from tensorflow.contrib import slim
# need tensorflow_models project
sys.path.append('/home/user/projects/tf_models/slim')
from datasets import mnist
g = tf.Graph()
with g.as_default():
tf.logging.set_verbosity(tf.logging.DEBUG)
train_set = mnist.get_split('train', data_dir)
provider = slim.dataset_data_provider.DatasetDataProvider(train_set, num_readers = 10, shuffle = True)
[image, label] = provider.get(['image', 'label'])
images, _ = tf.train.batch([image, label], batch_size = batch_size, num_threads=10, capacity = 2*batch_size)
images = tf.cast(images, tf.float32) / 255
recon, model = inference_ae(images, 0.5)
sh = images.get_shape().as_list()
loss = tf.contrib.losses.log_loss(recon, tf.reshape(images, [sh[0], -1]))
tf.scalar_summary('loss', loss)
optimizer = tf.train.AdadeltaOptimizer(learning_rate)
train_op = slim.learning.create_train_op(loss, optimizer)
final_loss_value = slim.learning.train(train_op, log_dir, number_of_steps= n_steps,
log_every_n_steps = 10,
save_summaries_secs=300, save_interval_secs=600)
print("Final loss value: {}".format(final_loss_value))