我正在运行带有tensorflow后端的Keras模型。它可以在台式机上运行-尽管我的Windows机器的所有16个内核都没有使用。
我将其移植到Google的COLAB并在此处运行。我正在使用keras的fit_genrator,因为数据集有3400万个训练对。问题在于,完全没有2000+内核的提速-基本上没有改善。有人遇到过吗?
我在这里看到了关于类似问题的一些讨论 https://github.com/keras-team/keras/issues/7732
代码本身是skipgrams的实现-
SkipGram.fit_generator(batch_manager,epochs = epochs, verbose = 1,use_multiprocessing = True,max_queue_size = 50)
谢谢。