我正在使用keras构建可输入720x1280图像并输出值的模型。
在使用keras.models.Sequential.predict_generator
类获取与验证/训练集上的图像对应的值时,keras.utils.Sequence
遇到问题。返回的值被混洗,所以我不知道哪个输出对应哪个图像。
这是我的生成器的定义方式
from skimage.io import ImageCollection, imread
from keras.utils import Sequence
def load_images(f):
return imread(f).astype(np.float64)
class DataSetImageKeras(Sequence):
def __init__(self, image_collection, values, batch_size):
self.images = image_collection
self.hf = values
self.batch_size = batch_size
self.n = len(self.images)
self.x_scale = 250
self.y_scale = 1e4
def __len__(self):
return int(np.ceil(len(self.images) / float(self.batch_size)))
def __getitem__(self, idx):
# batch_x is a numpy.ndarray
batch_x = (
self.images[idx:min(idx + self.batch_size, self.n)]
.concatenate()
.reshape(self.batch_size, 720, 1280, 1)
)
batch_y = self.hf[idx:min(idx + self.batch_size, self.n)]
return batch_x/self.x_scale, batch_y/self.y_scale
images_train = ImageCollection(images_paths_train, load_func=load_images)
images_val = ImageCollection(images_paths_test, load_func=load_images)
data_train = DataSetImageKeras(images_train, values_train, n_batch)
data_val = DataSetImageKeras(images_val, values_val, n_batch)
from keras.models import load_model
model = load_model('model001') #this model is already trained
如果我使用以下代码:
val_result = []
val_hf =[]
for (batch_x, batch_y) in data_val:
val_result.append(model.predict_on_batch(batch_x))
val_hf.append(batch_y)
val_result = np.concatenate(val_result)
val_hf = np.concatenate(val_hf)
plt.plot(val_hf,
val_result,
marker='.',
linestyle='')
获得正确的结果(如this image所示,其中x是期望值,y是预测值)
但是,如果我使用预测函数,如下所示:
val_result = model.predict_generator(data_val, verbose=1,
workers=1,
max_queue_size=50,
use_multiprocessing=False)
如here所示,输出乱序显示。
我的问题类似于
#5048和
#6745,
这应该通过解决
#6891 API,但我使用的是keras版本2.1.6,即使使用workers=1
,它仍在拖延我的预测。
它也类似于this,但是我没有发现任何可以重置生成器的东西,如果我定义一个新的生成器并尝试运行predict_generator
,这个问题仍然存在。 / p>
我还发现有些事情可能与批处理数量没有完全除以样本数量有关,但是如果我使用n_batch=1
请注意,因为values
和images_paths
上的输入数据已经被改组了,所以predict_generator不会对数据进行改组,而是仅以索引偏移量返回它。
答案 0 :(得分:1)
predict_generator
并没有拖延我的预测。问题出在__getitem__
方法上。例如,使用n_batch=32
,该方法将产生从1到32,然后从2到33等的值,而不是从1到32、33到64等。
更改以下方法可以解决问题
def __getitem__(self, idx):
# batch_x is a numpy.ndarray
idx_min = idx*self.batch_size
idx_max = min(idx_min + self.batch_size, self.n)
batch_x = (
self.images[idx_min:idx_max]
.concatenate()
.reshape(self.batch_size, 720, 1280, 1)
)
batch_y = self.hf[idx_min:idx_max]