我想在激活函数中生成随机数,以便每次调用激活函数时都会生成随机数。我尝试使用random.uniform和tf.random_uniform,但它只在编译时生成一个随机值,并且不再更改。我怎样才能每次更新?
有趣的事实: 当我使用tf.Variable(random.uniform(1,2))创建变量时,每次调用它的函数稍微大一点时,例如:
stats = [['cap', '0'], ['cap', '0']]
stats1 = [['cap', '0'], ['cap', '1']]
if any(any(a > b for a, b in zip(i, c)) for i, c in zip(stats, stats1)):
print("success")
编辑: 功能很简单 功能:
1.22069513798
1.22072458267
1.22075247765
1.22077202797
我将省略神经网络中的所有行,但我只是将其称为:
def activation(tensor):
alpha = tf.Variable(random.uniform(1,2))
return alpha*tensor,alpha
我稍后通过简单地获得价值:
act,alpha = activation(dense_layer+bias)
由于