有没有办法在GPU上使用tensorflow map_fn?

时间:2017-10-31 21:48:22

标签: python python-3.x tensorflow tensorflow-gpu

我有一个具有形状[a,n]的张量 A ,我需要执行另一个张量 B 形状的op my_op [b, n]使得得到的张量 C 具有形状[a,b]。

换句话说:对于 A (A [0],A 1,... A [n])中的每个子传感器,我需要在 B 中使用每个子传感器执行元素操作。

因此得到的张量将包含以下内容:

[ [ A[0] op B[0] , A[0] op B[1], ... , A[0] op B[b] ],
  [ A[1] op B[0] , A[1] op B[1], ... , A[1] op B[b] ],
  [ ...                                             ],
  [ A[a] op B[0] , A[a] op B[1], ... , A[a] op B[b] ] ]

我能够找到的唯一方法是通过嵌套使用tf.map_fn 因此:

import tensorflow as tf
import time
import numpy as np

a_size = 64
b_size = 256*256
n = 256
A = tf.placeholder(tf.float32,[a_size,n])
B = tf.placeholder(tf.float32,[b_size,n])

def elementwise_op(a,b):
    return tf.reduce_sum(tf.multiply(a,b))

def intermediate_op(sub_a,my_b):
    sample_values = tf.map_fn(lambda x: elementwise_op(sub_a,x),my_b)
    return sample_values

my_op = tf.map_fn(lambda x: intermediate_op(x,B),A)

with tf.Session() as sess:
    a = np.random.rand(a_size,n)
    b = np.random.rand(b_size,n)
    start_time = time.time()
    result = sess.run (my_op,feed_dict={A:a,B:b})
    print ("exec time: " ,time.time()-start_time)
    print (result.shape)

上面的代码运行良好,但是它没有很好地使用GPU(根据nvidia-smi只有~15%的利用率)。实际上,当使用 CPU 时,它的运行速度提高了一个数量级! (在我的12核心机器上)当使用GPU运行时,我看到我的CPU内核的一个的GPU利用率非常低(~15%)和100%。当仅在CPU上运行时,我看到所有CPU核心的利用率为100%。

仅运行5个CPU的平均时间: 11.33s

5次GPU运行的平均时间: 111.88s

上述测试使用官方Tensorflow docker镜像运行:tensorflow/tensorflow:latest-py3(对于CPU)和tensorflow/tensorflow:latest-gpu-py3(对于GPU)

我的猜测是map_fn通过python lambda强制数据在每次迭代时在CPU和GPU之间来回复制,以及op的嵌套特性只是让事情变得更糟未回答的SO问题here中的评论表明情况确实存在。

This article声称:

  

lambda表达式是GPU利用率低的主要原因。

-

所以我的问题是:有没有办法强制map_fn使用GPU?或者为了避免Python lambda?

或者,是否还有其他一些(可能更多的tensorflow-y)方法来实现上述结果,以便让图形在GPU上运行?

修改 在运行探查器之后(我不得不大幅减少数组的大小以使探测器完全运行,因为它像疯了一样占用RAM),以下几行引起了我的注意:

node name     |     output bytes     |      total execution time     | accelerator execution time     |     cpu execution time

Mul                    1.02KB (22.23%, 0.29%),      195.07ms (85.00%, 13.06%),       5.29ms (100.00%, 25.79%),      189.78ms (84.79%, 12.89%)

Sum                      256B (21.41%, 0.07%),      241.48ms (69.08%, 16.17%),        6.01ms (74.21%, 29.29%),      235.47ms (69.01%, 15.99%)

TensorArrayScatterV3      512B (0.64%, 0.15%),      658.31ms (46.87%, 44.09%),        9.19ms (44.80%, 44.80%),      649.12ms (46.90%, 44.08%)

看起来某些操作主要在CPU上完成,并且只在一个线程上完成!

1 个答案:

答案 0 :(得分:2)

tf.map_fn()构造可以与在GPU上运行ops的函数一起使用。默认情况下,TensorFlow将尝试在GPU上运行尽可能多的功能,并且任何GPU不兼容的操作都将在CPU上运行。在您的程序中,整个elementwise_op()函数是从GPU兼容的ops构建的,因此在每次迭代时都不应该在CPU和GPU之间进行额外的复制。

很难从程序片段确定GPU利用率低的原因。例如,如果AB相对较小,并且您从Python中提取它们并立即取回结果,则可能是将初始数据复制到GPU和从GPU复制的开销会占主导地位。跟踪此问题的最佳方法是使用GPU分析器,您可以使用tfprofNVIDIA Visual Profiler获取。