标签: python tensorflow parallel-processing simd parfor
假设我有复杂的矩阵操作例程,我已将其实现为Tensorflow图。现在假设我想针对位于Tensorflow之外的一堆数据运行此图表。假设我无法将此数据表示为Tensorflow中的N-d张量,并且必须将矩阵作为一个。
Tensorflow
在这种情况下我可以获得GPU吗?
我可以并行进行计算吗?某种par-for或SIMD?那么Tensorflow根据需要建立队列并分配GPU资源?
SIMD