我正面临以下问题。我正在部署Keras应用程序,该应用程序需要在没有GPU的多CPU计算机上分割几百个图像。目前,这大约需要30秒,这太长了。我只是在做:
tensor_of_segmented_images = network.predict( tensor_of_raw_images )
我想知道是否:
1.默认情况下,Keras正在使用所有可用的CPU?
2.如果没有,是否有一种简单的方法可以利用所有CPU
3.总的来说,有没有更好的方法?
谢谢。
亚历克斯。
PS:网络已经高度优化,可以快速推断