为什么即使同时设置inter_op_parallelism_threads和intra_op_parallelism_threads = 1

时间:2019-07-10 19:07:35

标签: python tensorflow

我正在运行一个简单的Tensorflow程序(Keras API),以在单个图像(仅CPU)上训练模型。这里的目标是了解Tensorflow如何在模型和/或数据并行性方面实现内幕前进/后退。  最初使用默认参数运行时,VTune Amplifier(Intel Profiler)显示正在生成421个线程。然后,我通过将inter_op_parallelism_threads和intra_op_parallelism_threads都设置为1来强制其在单个内核上运行来重新运行。即使这样,VTune仍显示出262个线程。 有人可以帮我理解为什么会产生这么多线程吗?这与将Python API用于Tensorflow有什么关系吗?

我在CentOS上使用带有Python 3.6的Tensorflow 1.13。

0 个答案:

没有答案