在Keras和Tensorflow中复制模型以实现多线程设置

时间:2016-10-20 12:22:00

标签: python multithreading tensorflow keras

我正在尝试在Keras和TensorFlow中实现actor-critic的异步版本。我正在使用Keras作为构建我的网络层的前端(我正在使用tensorflow直接更新参数)。我有一个global_model和一个主张量流会话。但是在每个线程中我创建了一个local_model来复制global_model中的参数。我的代码看起来像这样

def main(args):
    config=tf.ConfigProto(log_device_placement=False,allow_soft_placement=True)
    sess = tf.Session(config=config)
    K.set_session(sess) # K is keras backend
    global_model = ConvNetA3C(84,84,4,num_actions=3)

    threads = [threading.Thread(target=a3c_thread, args=(i, sess, global_model)) for i in range(NUM_THREADS)]

    for t in threads:
        t.start()

def a3c_thread(i, sess, global_model):
    K.set_session(sess) # registering a session for each thread (don't know if it matters)
    local_model = ConvNetA3C(84,84,4,num_actions=3)
    sync = local_model.get_from(global_model) # I get the error here

    #in the get_from function I do tf.assign(dest.params[i], src.params[i])

我收到来自Keras的用户警告

  

UserWarning:默认的TensorFlow图形不是关联的图形   目前已在Keras注册的TensorFlow会话中使用   这样的Keras无法自动初始化变量。您   应该考虑通过Keras注册正确的会话   K.set_session(sess)

后跟tf.assign操作的张量流错误,说操作必须在同一个图上。

  

ValueError:Tensor(“conv1_W:0”,shape =(8,8,4,16),   dtype = float32_ref,device = / device:CPU:0)必须来自同一图表   as Tensor(“conv1_W:0”,shape =(8,8,4,16),dtype = float32_ref)

我不确定出了什么问题。

由于

1 个答案:

答案 0 :(得分:5)

错误来自Keras,因为tf.get_default_graph() is sess.graph正在返回False。从TF文档中,我看到tf.get_default_graph()正在返回当前线程的默认图形。当我开始一个新线程并创建一个图形时,它被构建为一个特定于该线程的单独图形。我可以通过以下方式解决这个问题,

with sess.graph.as_default():
   local_model = ConvNetA3C(84,84,4,3)