我正在尝试在卷积网络上实现自定义参数更新,但每个执行的迷你批处理都会变得越来越慢。
我意识到没有必要以固定的学习率解决这个问题,但我打算稍后更新。
我在一个循环中调用它,其中feed_dict是mini_batch。
sess.run(layered_optimizer(cost,.1,1),feed_dict = feed_dict)
,其中
def layered_optimizer(cost,base_rate, rate_multiplier):
gradients = tf.gradients(cost, [*weights, *biases])
print(gradients)
#update parameters based on gradients: var = var - gradient * base_rate * multiplier
for i in range(len(weights)-1):
weights[i].assign(tf.subtract(weights[i], tf.multiply(gradients[i], base_rate * rate_multiplier)))
biases[i].assign(tf.subtract(biases[i], tf.multiply(gradients[len(weights)+i], base_rate * rate_multiplier)))
return(cost)
我不确定这是否与此问题有关,但在第二次尝试运行代码后,我遇到以下错误并且必须重新启动。
无法创建cudnn句柄:CUDNN_STATUS_NOT_INITIALIZED 错误检索驱动程序版本:未实现:内核报告驱动程序版本未在Windows上实现 无法破坏cudnn句柄:CUDNN_STATUS_BAD_PARAM 检查失败:stream-> parent() - > GetConvolveAlgorithms(conv_parameters.ShouldIncludeWinogradNonfusedAlgo(),& algorithms)
答案 0 :(得分:0)
每次调用时都会发生什么?
gradients = tf.gradients(cost,[* weights,* biases])
创建了一个新的tf.gradients实例,占用了不必要的内存。