我试图在我的CPU的多个内核上安装Keras
模型。我已经对此进行了一些研究,我试图设置一个可以处理多个核心的tensorflow后端:
session_conf =
tensorflow.ConfigProto(intra_op_parallelism_threads=32,inter_op_parallelism_threads=32,log_device_placement=True)
tensorflow.set_random_seed(1)
keras.backend.set_session(tensorflow.Session(graph=tensorflow.get_default_graph(), config=session_conf))
我试图在这种情况下使用它:
model.compile(optimizer = 'adam', loss = 'mean_squared_error',metrics=['acc'])
trained=False
if(trained==False):
compteur=600
while(compteur>0):
print("epoch :" + str(compteur))
hist=model.fit(X_train,y_train, epochs = 1, batch_size = 50)
compteur=compteur-1
if(hist.history['loss'][-1]<0.0005):
break
else:
model = load_model('mode_trained_12h.h5')
但是它似乎不起作用(64核CPU仅比我便宜的本地CPU快3倍)。有什么解决办法的想法吗?我使用keras
的方法正确吗?
谢谢
朱利安