我想将简单的数据扩充(输入向量乘以随机标量)应用于Keras中实现的完全连接的神经网络。 Keras具有很好的图像增强功能,但尝试使用此功能对于我的输入(1张量)而言似乎很尴尬且缓慢,其训练数据集适合我的计算机内存。
相反,我以为我可以使用Lambda层(例如像这样的东西:
x = Input(shape=(10,))
y = x
y = Lambda(lambda z: random.uniform(0.5,1.0)*z)(y)
y = Dense(units=5, activation='relu')(y)
y = Dense(units=1, activation='sigmoid')(y)
model = Model(x, y)
我的问题与何时生成此随机数有关。这会为以下问题修复一个随机数吗?
答案 0 :(得分:1)
因为random.uniform
不是keras函数,所以使用它将创建一个完全不变的常量。您在图形中将此操作定义为constant * tensor
,该因子将保持不变。
您需要“来自keras”或“来自tensorflow”的随机函数。例如,您可以使用K.random_uniform((1,), 0.5, 1.)
。
每批将更改。您可以通过训练许多时间的代码来对其进行测试,并观察损失的变化。
from keras.layers import *
from keras.models import Model
from keras.callbacks import LambdaCallback
import numpy as np
ins = Input((1,))
outs = Lambda(lambda x: K.random_uniform((1,))*x)(ins)
model = Model(ins,outs)
print(model.predict(np.ones((1,1))))
print(model.predict(np.ones((1,1))))
print(model.predict(np.ones((1,1))))
model.compile('adam','mae')
model.fit(np.ones((100000,1)), np.ones((100000,1)))
如果您希望针对每个训练样本进行更改,则获取固定的批次大小,并为每个样本生成带有随机数的张量:K.random_uniform((batch_size,), .5, 1.)
。
但是,如果在自己的生成器和model.fit_generator()
中执行,则可能会获得更好的性能,
class MyGenerator(keras.utils.Sequence):
def __init__(self, inputs, outputs, batchSize, minRand, maxRand):
self.inputs = inputs
self.outputs = outputs
self.batchSize = batchSize
self.minRand = minRand
self.maxRand = maxRand
#if you want shuffling
def on_epoch_end(self):
indices = np.array(range(len(self.inputs)))
np.random.shuffle(indices)
self.inputs = self.inputs[indices]
self.outputs = self.outputs[indices]
def __len__(self):
leng,rem = divmod(len(self.inputs), self.batchSize)
return (leng + (1 if rem > 0 else 0))
def __getitem__(self,i):
start = i*self.batchSize
end = start + self.batchSize
x = self.inputs[start:end] * random.uniform(self.minRand,self.maxRand)
y = self.outputs[start:end]
return x,y