我有一些相当大的批量大小我想要采取多个渐变步骤。虽然我可以使用python for循环轻松完成此操作,但我想可能有一种更有效的方法,它不涉及在每次迭代时将数据传输到gpu。我曾多次尝试将火车操作系统放入获取列表中,但我不确定它是否实际运行了多次(运行时完全相同)。
答案 0 :(得分:6)
如果您有可变大小的批处理,那么变量不适合保存它,您可以使用持久的张量在run
次调用之间保留此数据。这是一个玩具示例
t = tf.int32
params = tf.Variable(tf.ones_initializer((), dtype=dt))
data_batches = [[1], [2, 3], [4, 5, 6]]
# op that uploads data to TF and saves it as a persistent Tensor
data_saver_placeholder = tf.placeholder(dt)
tensor_handle_op = tf.get_session_handle(data_saver_placeholder)
data_placeholder, data = tf.get_session_tensor(dt)
train_op = tf.assign_add(params, tf.reduce_prod(data))
init_op = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init_op)
for batch in data_batches:
# upload tensor to TF runtime and save its handle
tensor_handle = sess.run(tensor_handle_op, feed_dict={data_saver_placeholder: batch})
# run train op several times reusing same data
for i in range(3):
sess.run(train_op, feed_dict={data_placeholder: tensor_handle.handle})
assert sess.run(params) == 382
答案 1 :(得分:2)
如果您sess.run([myop,myop])
myop
只运行group
一次。
如果要运行op,但不将其结果提取到Python运行时,则可以使用控件依赖项。一个简单的方法是使用sess.run(tf.group(myop))
sess.run(tf.group(myop))
op,即
group
如果你的图表很大,你可以通过在运行调用之间构建myop_nooutput = tf.group(myop)
sess.run(myop_nooutput)
sess.run(myop_nooutput)
op来获得额外的开销(对于> 10k节点图可能是10-100ms),所以你可以提前构建它
[
{
key: 1,
element: 'input',
type: 'text',
placeholder: 'Jamie is'
},
{
key: 2,
element: 'input',
type: 'text',
placeholder: 'Jamie is Not'
},
{
key: 3,
element: 'input',
type: 'password',
placeholder: 'Jamie is'
}
]