双端队列的大小如何影响Tensorflow模型的训练速度?

时间:2019-01-13 19:46:16

标签: python tensorflow machine-learning deque

我多次使用tensorflow模型运行完全相同的python脚本。只有一个区别。脚本的一半使用大小为500000的双端队列,另一半使用1000000的双端队列作为体验存储。从存储库中选择了512个随机选择的示例进行训练。

这些网络仍在训练中,但是到目前为止,拥有500k的deque的网络速度要快10%。距离似乎越来越大。确保从更大的内存中随机选择512个可能会花费一些时间。但是整个培训过程中有10%?

代码看起来像这样

...
self.memory = deque(maxlen=1000000)
...
def experience_replay(self):
        if len(self.memory) < 512:
            return
        batch = random.sample(self.memory, 512)
        state_batch = np.zeros((512, 6, 7, 2))
        q_values_batch = np.zeros((512, 7))
        idx = 0
        for state, action, reward, state_next, terminal in batch:
            q_update = reward
            if not terminal:
                state_next = np.expand_dims(state_next, axis=0)
                q_update = (reward + 0.95 * np.amax(self.model.predict(state_next)[0]))
            state = np.expand_dims(state, axis=0)
            q_values = self.model.predict(state)
            q_values[0][action] = q_update
            state_batch[idx, ...] = state
            q_values_batch[idx, ...] = q_values
            idx = idx + 1

        self.model.fit(state_batch, q_values_batch, verbose=0)
        self.exploration_rate *= 0.9998
        self.exploration_rate = max(0.01, self.exploration_rate)

什么可能导致这种加速?

1 个答案:

答案 0 :(得分:1)

FWIW, deque() random.sample()不能有效地协同工作。 deque 对于端点附近的访问是快速的,但对于中间的索引查找则为O(n)。这是有问题的,因为 random.sample()对双端队列进行了重复的索引查找。问题中显示的代码片段最好使用列表。

您的原始问题的准确答案是从 n 个长度双端队列中提取 k 个样本,所花费的时间与k * n / 4成比例。从算法上讲,将大小增加一倍通常会使运行时间的期望值增加一倍。