我在gtx 1070和2080ti上使用带有conda和python 3.6,tf 1.20 GPU的Ubuntu 18
当我使用此代码时
model.fit_generator(i, epochs=1, workers=16,
use_multiprocessing=False, max_queue_size=16,
verbose=1)
效果很好
当我将use_multiprocessing更改为True并运行时,它什么也不做,python根本没有使用cpu,并且监视器上也没有任何显示。过去,它过去工作正常。
我在这里想念什么?